Adversarial Preprocessing: Skalierungsangriffe auf maschinelles Lernen

Mittwoch, 6. April 2022

Zusammenfassung: Der aktuelle Erfolg des maschinellen Lernens wird durch die Entdeckung von verschiedenen Verwundbarkeiten überschattet. Während sich die Forschung bisher auf Schwachstellen im Lernprozess konzentriert hat, ist eine andere Angriffsfläche in lernbasierten Systemen übersehen worden: die Datenvorverarbeitung. In diesem Vortrag stelle ich als Beispiel für dieses Problem eine neue Klasse von Angriffen gegen Skalierungsalgorithmen vor. Diese Angriffe sind unabhängig von konkreten Lernverfahren und betreffen alle lernbasierten Systeme zur Bildverarbeitung, die verwundbare Skalierungsalgorithmen einsetzen, wie zum Beispiel TensorFlow, OpenCV und Pillow. Ich analysiere die Ursachen der Angriffe und stelle Verteidigungsmaßnahmen vor, die die Angriffe abwehren und leicht in bestehende Systeme integriert werden können.

Bio: Konrad Rieck ist Professor an der TU Braunschweig und Leiter des Instituts für Systemsicherheit. Zuvor war er an der Universität Göttingen, der TU Berlin und Fraunhofer FIRST tätig. Sein Forschungsschwerpunkt liegt an der Schnittstelle von maschinellem Lernen und IT-Sicherheit. Mit seiner Gruppe entwickelt er intelligente Systeme zur Erkennung von Angriffen, zur Analyse von Schadcode und zur Entdeckung von Sicherheitsschwachstellen. Für seine Arbeit wurde er mit dem CAST/GI Promotionspreis und dem Google Faculty Research Award ausgezeichnet.