Einzelansicht

 So, 14. Apr. 2019   Weber, Felix

Wissenschaftliche Hilfskraft des IIS-Lehrstuhls gewinnt den 2. Platz im informatiCup

Mit ihrem Angriff auf ein neuronales Netz zur Verkehrsschild-Erkennung haben Mohamed Kari und Tobias Mähl den 2. Platz des informatiCup-Wettbewerbs 2019 der GI gewonnen.

Tobias Mähl, Masterand am IIS-Lehrstuhl, und Mohamed Kari, Wissenschaftliche Hilfskraft am IIS-Lehrstuhl, haben gemeinsam den 2. Platz aus 30 qualifizierten Einreichungen des diesjährigen informatiCup-Wettbewerbs der Gesellschaft für Informatik gewonnen. 

Aufgabe des Wettbewerbs war ein Black-Box-Angriff auf ein neuronales Netz zur optischen Verkehrschild-Erkennung. Damit thematisierte der informatiCup ein Grundproblem des auf Deep Learning basierenden, autonomen Fahrens: Seit der aufsehenerregenden Publikation von Szegedy et al. (2013, S. 5) ist bekannt, dass die in diesem Jahrzehnt sehr erfolgreich für Computer Vision eingesetzten Deep Neural Networks (DNNs) für Angriffe anfällig sind, bei denen ein algorithmisch konstruiertes Bild mit hohem Score falsch klassifiziert wird.

Die beiden Wirtschaftsinformatik-Studenten unserer Uni konnten die Jury mit ihrer Lösung überzeugen: Unter Verwendung einer Jacobian Data Augmentation (Papernot et al. 2016) mit anschließendem iterativen Gradienten-Angriff mit Momentum (Dong et al. 2017), den sie in TensorFlow implementierten, konnten sie Bilder generieren, die für den Menschen kein Verkehrsschild darstellen, vom Black-Box-Klassifikator jedoch mit höchsten Scores als Verkehrsschild erkannt wurden.

Der Wettbewerb wurde von Amazon, PPI, NetLight, TWT,  VW und GitHub gesponsert. Das Finale fand auf dem MobileLifeCampus statt, dem IT-Gebäude von Volkswagen in Wolfsburg, in dem der Automobilhersteller seine Technologie zum autonomen Fahren entwickelt.

Wir gratulieren beiden herzlich zum 2. Platz und zum Preisgeld in Höhe von 2000 Euro.

 

__

Dong, Y. et al. (2017) “Boosting Adversarial Attacks with Momentum“ Conference on Computer Vision and Pattern Recognition (CVPR) 2018 - Spotlight. Available at: arxiv.org/abs/1710.06081.

Papernot, N. et al. (2016) “Practical Black-Box Attacks against Machine Learning“ Asia Conference on Computer and Communications Security 2017. doi: 10.1145/3052973.3053009.

Szegedy, C. et al. (2013) “Intriguing properties of neural networks“ International Conference on Learning Representations (ICLR) 2014, pp. 1–10. doi: 10.1021/ct2009208