Die Umfeld-Wahrnehmung selbstfahrender Autos lässt sich mit einfachen Mitteln täuschen. Forscher des Max-Planck-Instituts für Intelligente Systeme haben die Bilderkennungssysteme nun mit speziellen Farbflecken ausgetrickst. Für den Einsatz von Roboterautos auf öffentlichen Straßen bedeutet das ein Sicherheitsrisiko.
Den Wissenschaftlern ist es nach eigenen Angaben innerhalb der Studie binnen vier Stunden gelungen, ein Farbmuster zu erstellen, das im Auto so viele Störsignale auslöst, dass es zum Sicherheitsrisiko wird. Das Muster ließe sich problemlos auf T-Shirts, als Aufkleber auf Verkehrsschildern oder auf Einkaufstüten aufbringen. Hacker könnten diesen Umstand ausnutzen, warnen die Forscher.
Problem ist offenbar die künstliche Intelligenz bei der Bilderkennung, die im Fall der Studie auf tiefen neuronalen Netzen basiert. Der Algorithmus nutzt die Bordkamera, um die Umgebung, etwa die Straße vor dem Fahrzeug, zu beobachten und Hindernisse zu erkennen. Funktioniert sie nicht zuverlässig, stoppt das Roboterauto im besten Fall aus Sicherheitsgründen die Fahrt. Hackern des chinesischen Internetkonzerns Tencent ist es in Experimenten allerdings auch schon gelungen, mit Hilfe optischer Manipulationen ein Fahrzeug zum Verlassen der Spur zu bewegen. Auch das Erzwingen plötzlicher Bremsmanöver oder ähnliches ist denkbar.
Dass die selbstlernenden Bilderkennungs-Systeme allgemein und auch speziell beim Auto anfällig sind, ist vor diesem Hintergrund nichts Neues. Für die noch ferne Serieneinführung von Roboterfahrzeugen bedeutet das Max-Planck-Experiment allerdings nur einen leichten Rückschlag. Die Wissenschaftler warnen die Autohersteller zwar, halten die Sicherheitsprobleme aber nicht für unlösbar. Die Hersteller könnten ihre Systeme so trainieren, dass sie gegenüber derartigen Angriffen robust sind, heißt es von Seiten des Instituts. (SP-X)