Typische Angriffe auf ML-Systeme: Wie sicher ist Machine Learning wirklich?

Machine Learning erfreut sich einer ungebrochenen Beliebtheit. Allerdings wird es dadurch auch zum beliebten Angriffsziel: David Glavas zeigt in diesem Talk von der ML Conference, welche typischen Angriffe auf ML-Systeme durchgeführt werden und wie man sich darauf einstellen kann.
Da auf maschinellem Lernen (ML) basierende Ansätze weiterhin großartige Ergebnisse erzielen und ihr Einsatz immer weitverbreiteter ist, wird es immer wichtiger, ihr Verhalten in kontroversen Situationen zu untersuchen. In diesem Talk wirft David Glavas einen Blick auf alles, was ein ML-Entwickler wissen sollte, wenn es um Sicherheitsfragen in ML-Systemen geht. Am Ende der Session werden Sie wissen, was möglich ist und was nicht möglich ist, worüber Sie sich Sorgen machen sollten und worüber Sie sich keine Sorgen machen sollten. Glavas beginnt mit einem allgemeinen Überblick über Sicherheitsfragen in ML-Systemen und konzentriert sich dann auf Schwachstellen zur Testzeit (Adversarial Examples). Der Talk von der ML Conference zeigt, was Adversarial Examples sind, welche negativen Folgen sie haben könnten, und wirft einen Blick auf bekannte Angriffe auf ML-Systeme, darunter ML-Dienste (Google Cloud, AWS), Angriffe auf hochmoderne Gesichtserkennungssysteme, Angriffe auf autonome Fahrzeuge, Angriffe auf Sprachassistenten (Apple Siri, Google Now und Amazon Echo) und mehr.

Hinterlasse einen Kommentar