Google: Manipulierte Bilder beeinflussen Wahrnehmung von KI und Mensch
Es gibt News aus der Google-Forschung. Ein Forscher:innenteam hat herausgefunden, dass durch veränderte digitale Bilder nicht nur KI ausgetrickst wird, sondern auch von Menschen nicht immer das erkannt wird, was tatsächlich darauf zu sehen ist. Künstliche neuronale Netze (ANNs) und Menschen werden also ähnlich beeinflusst, wenn sie es mit irreführenden Störungen auf Bildern zu tun haben.
Adverserial Attacks sind geringfügige Veränderungen an Bildern
Ein Bild wird durch ein Verfahren subtil verändert, um ein KI-Modell zu veranlassen, den Bildinhalt mit Sicherheit falsch zu klassifizieren. Was hier passiert, wird „kontradiktorische Störungen” oder „Adversarial Attacks” genannt. Vorstellen kann man sich das so: Einer Bilderkennungs-KI werden zwei „manipulierte” Fotos vorgelegt. Dabei kann zum Beispiel die Größenordnung der Pixel verändert werden oder ein vermeintlich zufälliges Muster wird über ein Bild gelegt. Für das menschliche Auge treten auf den ersten Blick keine sichtbaren Veränderungen auf. Dem Bilderkennungsprogramm passiert allerdings, dass es ein weißes Haus und einen davor stehenden weißen Van fälschlicherweise als Schaf identifiziert.
Anfällig für unerwünschte Störungen
Der Google Blogpost zum Research bestätigt: Künstliche neuronale Netze (ANNs) sind von der Funktionsweise des menschlichen Gehirns inspiriert. Im Fall der Bilderkennung zeigen sie allerdings eine Schwäche, die in der menschlichen Wahrnehmung normalerweise nicht vorkommt. Damit ist belegt, dass Computer und Menschen die Dinge tatsächlich auf unterschiedliche Weise sehen beziehungsweise wahrnehmen. Die Google Forschungsergebnisse zeigen dennoch, dass ANNs und menschliche Entscheidungen ähnlich beeinflusst werden, wenn sie mit irreführenden Störungen bei Bildern konfrontiert werden. Warum das so ist, liegt mehr an den allgemeinen Merkmalen von Bildern als an spezifischen Strukturen von ANNs.
Straßenchaos durch Adversarial Attacks möglich
Im wahrsten Sinne von Attacken lässt sich sprechen, wenn solche Bildmanipulationen bewusst eingesetzt werden, um zum Beispiel autonom fahrende Autos im Straßenverkehr zu verwirren. Man könnte Stoppschilder oder andere Verkehrszeichen entsprechend manipulieren, sodass sie von der KI nicht mehr eindeutig erkannt werden, berichtet t3n. Für die Google-Wissenschaftler:innen ist klar, dass die Auswirkungen von KI auf die Menschen hinlänglich untersucht werden müssen und hier weiterer Forschungsbedarf besteht. Nur so können zuverlässige und sicherere KI-Systeme gebaut werden.