Versione PDF di: Das Goodfellow-Experiment: Warum KIs hier einen Gibbon sehen

Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:

https://blog.tuttosemplice.com/de/das-goodfellow-experiment-warum-kis-hier-einen-gibbon-sehen/

Verrai reindirizzato automaticamente...

Das Goodfellow-Experiment: Warum KIs hier einen Gibbon sehen

Autore: Francesco Zinghinì | Data: 2 Marzo 2026

Stellen Sie sich vor, Sie betrachten das Foto eines friedlichen Pandas. Nun legt jemand einen hauchdünnen, für das menschliche Auge absolut unsichtbaren Filter aus statischem Rauschen über dieses Bild. Für Sie bleibt es zweifellos ein Panda. Doch für eine hochmoderne Künstliche Intelligenz verwandelt sich das Tier plötzlich und mit absoluter Sicherheit in einen Gibbon. Dieses Phänomen, bekannt als „Adversarial Example“ (feindliches Beispiel), ist die Hauptentität und der Kern eines der hartnäckigsten Rätsel der modernen Informatik. Es demonstriert eindrucksvoll, dass das, was wir als „Sehen“ oder „Verstehen“ bezeichnen, bei Maschinen auf fundamental anderen, oft fragilen mathematischen Prinzipien beruht.

Der Ursprung des Trugbilds: Das Goodfellow-Experiment

Um die Tiefe dieses Problems zu verstehen, müssen wir zu einem wegweisenden Experiment zurückkehren, das Ian Goodfellow und seine Kollegen bereits 2014 durchführten. Sie nahmen ein Bild, das von einem neuronalen Netz korrekt als „Panda“ klassifiziert wurde (mit 57,7 % Wahrscheinlichkeit). Dann berechneten sie eine spezifische Störung – ein Rauschen, das nicht zufällig war, sondern mathematisch präzise konstruiert. Nachdem dieses Rauschen über das Originalbild gelegt wurde, sah das Ergebnis für den Menschen identisch aus. Das neuronale Netz jedoch änderte seine Meinung radikal: Es klassifizierte das Bild nun als „Gibbon“ – und das mit einer fatalen Sicherheit von 99,3 %.

Dies war kein einfacher Softwarefehler oder ein „Bug“ im herkömmlichen Sinne. Es war der Beweis dafür, dass Neuronale Networks und Maschinelles Lernen die Welt nicht semantisch erfassen, wie wir es tun, sondern statistisch. Während wir Ohren, Fellmuster und Schnauze als ganzheitliches Konzept „Bär“ interpretieren, analysiert die KI Millionen von Pixelwerten. Der „Panda-Effekt“ zeigt, dass diese Systeme anfällig für Manipulationen sind, die genau auf ihre mathematische Architektur abzielen.

Wie Maschinen „sehen“: Die Illusion der Linearität

Warum aber führt eine für uns unsichtbare Änderung zu einer so drastischen Fehlinterpretation? Die Antwort liegt in der Art und Weise, wie Deep Learning-Modelle trainiert werden. Ein Bild ist für einen Computer nichts weiter als eine riesige Matrix aus Zahlen (Pixelwerte). Ein neuronales Netz versucht, eine mathematische Funktion zu lernen, die diese Eingabewerte auf eine Ausgabekategorie (z. B. „Panda“) abbildet.

Das Geheimnis liegt in der Linearität dieser Modelle in hochdimensionalen Räumen. Auch wenn moderne KIs komplexe, nicht-lineare Aufgaben lösen, verhalten sie sich in vielen Aspekten überraschend linear. Wenn ein Angreifer jedem Pixel des Bildes eine winzige, kaum wahrnehmbare Änderung hinzufügt, mag die Änderung für einen einzelnen Pixel irrelevant sein. Doch in der Summe – über Tausende von Pixeln hinweg – akkumulieren sich diese winzigen Verschiebungen. Das Ergebnis ist ein gewaltiger Sprung im mathematischen Ergebnisraum, der das Bild über die sogenannte „Entscheidungsgrenze“ (Decision Boundary) schiebt. Das Modell „rutscht“ quasi von der Kategorie Panda in die Kategorie Gibbon, getrieben durch die summierte Kraft unzähliger mikroskopischer Manipulationen.

Kein Zufall: Die Berechnung der Täuschung

Es ist entscheidend zu verstehen, dass dieses Rauschen nicht zufällig ist. Würde man einfach zufälliges Rauschen (wie „Schnee“ auf einem alten Fernseher) über das Bild legen, würde die KI den Panda höchstwahrscheinlich weiterhin erkennen. Der „Panda-Effekt“ basiert auf einem gezielten Angriff, oft unter Verwendung der sogenannten „Fast Gradient Sign Method“.

Hierbei nutzt der Angreifer das Wissen über das Modell selbst. Er fragt das System mathematisch: „In welche Richtung muss ich die Pixelwerte ändern, um die Wahrscheinlichkeit für ‘Panda’ zu minimieren und für ‘Gibbon’ zu maximieren?“ Das System liefert einen Gradienten – eine Art Landkarte der steilsten Abstiege im Fehlergebirge. Der Angreifer wendet diese Karte dann auf das Bild an. Es ist, als würde man einem Wanderer (der KI) unmerklich die Karte verfälschen, sodass er glaubt, nach Norden zu gehen, während er tatsächlich nach Süden läuft.

Jenseits von Bildern: Die Gefahr für ChatGPT und LLMs

Dieses Phänomen beschränkt sich längst nicht mehr nur auf die Bilderkennung. Im Jahr 2026, in dem Generative AI und LLM (Large Language Models) wie ChatGPT unseren Alltag dominieren, hat sich der Panda-Effekt auf Text und Sprache ausgeweitet. Auch Texte werden von KIs als Vektoren in einem hochdimensionalen Raum verarbeitet.

Sogenannte „Jailbreaks“ oder „Prompt Injections“ sind das textuelle Äquivalent zum Panda-Bild. Durch das Einfügen bestimmter, oft unsinnig erscheinender Zeichenketten in einen Prompt können Sicherheitsmechanismen ausgehebelt werden. Diese Zeichenketten verschieben die internen Gewichtungen des Modells so, dass es plötzlich Anweisungen befolgt, die es eigentlich ablehnen sollte (wie das Erstellen von Schadsoftware). Auch hier gilt: Für den Menschen sieht der Text vielleicht nur etwas seltsam aus, für das Modell ändert sich der gesamte Kontext der Anfrage.

Die Konsequenzen für die reale Welt

Die technische Faszination für den Panda-Effekt weicht schnell der Besorgnis, wenn man die Anwendungen in der physischen Welt betrachtet. Das klassische Beispiel ist das autonome Fahren. Forscher haben gezeigt, dass man Aufkleber auf ein Stoppschild kleben kann, die für einen menschlichen Fahrer wie harmlose Graffiti aussehen. Für die Kamera und das dahinterliegende neuronale Netz des Autos jedoch verwandeln diese Aufkleber das Stoppschild in ein „Tempolimit 45“-Schild.

Die Konsequenz: Das Auto beschleunigt, statt zu bremsen. Dies verdeutlicht die Fragilität von Systemen, die auf Mustererkennung basieren, ohne ein echtes Verständnis von Kausalität oder Kontext zu besitzen. Ein Mensch weiß, dass ein Stoppschild auch mit Graffiti ein Stoppschild bleibt, weil er das Konzept und den Kontext der Verkehrssicherheit versteht. Die KI hingegen sieht nur eine Anordnung von Pixeln, die durch die Manipulation nun mathematisch näher an einem Tempolimit-Schild liegt.

Warum ist das Problem so schwer zu lösen?

Man könnte annehmen, die Lösung sei einfach: Man trainiert die KI einfach mit diesen manipulierten Bildern (Adversarial Training), damit sie lernt, diese zu erkennen. Das funktioniert jedoch nur bedingt. Es gleicht einem ewigen Katz-und-Maus-Spiel. Sobald das Modell gegen eine Art von Störung immunisiert ist, finden Forscher (oder Angreifer) eine neue mathematische Methode, um die Entscheidungsgrenzen erneut subtil zu verschieben.

Das Problem ist inhärent in der Architektur aktueller Deep-Learning-Modelle verankert. Ihre Stärke – die Fähigkeit, in hochdimensionalen Datenräumen komplexe Muster zu finden – ist gleichzeitig ihre Achillesferse. Sie verlassen sich auf Korrelationen, die für das menschliche Auge unsichtbar sind (z. B. Texturen im Sub-Pixel-Bereich), und genau diese Abhängigkeit macht sie angreifbar.

Fazit

Der Panda-Effekt ist weit mehr als eine akademische Kuriosität. Er ist eine eindringliche Erinnerung daran, dass Künstliche Intelligenz trotz ihrer beeindruckenden Leistungen fundamental anders „denkt“ als der Mensch. Während wir robust gegenüber kleinen Störungen sind und uns auf semantische Konzepte verlassen, navigieren KIs durch ein abstraktes Meer aus Zahlen, in dem schon eine kleine Welle die Orientierung kosten kann. Solange wir dieses Problem der „Adversarial Examples“ nicht vollständig gelöst haben, bleibt ein Restrisiko beim Einsatz autonomer Systeme in kritischen Bereichen bestehen. Die unsichtbare Änderung, die den Panda zum Gibbon macht, zeigt uns die Grenzen der aktuellen Technologie auf: Sie ist brillant in der Mustererkennung, aber blind für den gesunden Menschenverstand.

Häufig gestellte Fragen

Was ist ein Adversarial Example im Kontext von Künstlicher Intelligenz?

Ein Adversarial Example ist eine speziell manipulierte Eingabe für ein KI-System, die darauf ausgelegt ist, eine Fehlklassifikation zu provozieren. Dabei wird beispielsweise ein Bild mit einem für Menschen unsichtbaren Rauschen überlagert, das die mathematische Verarbeitung des neuronalen Netzes stört. Dies beweist, dass KIs Daten nicht semantisch verstehen, sondern rein statistisch auf Basis von Pixelwerten und Mustern analysieren.

Warum erkennt die KI im Goodfellow-Experiment einen Gibbon statt eines Pandas?

Im Experiment von Ian Goodfellow wurde das Bild eines Pandas mit einer mathematisch präzisen Störung überlagert, die gezielt die Entscheidungsgrenzen des Algorithmus angriff. Obwohl das Bild für das menschliche Auge unverändert blieb, summierten sich die winzigen Änderungen der Pixelwerte so stark, dass das neuronale Netz das Motiv mit über 99 Prozent Wahrscheinlichkeit als Gibbon identifizierte. Dies liegt an der Linearität der Modelle in hochdimensionalen Räumen, wodurch kleine Abweichungen große Auswirkungen auf das Endergebnis haben können.

Wie funktionieren Angriffe auf neuronale Netze durch Bildmanipulation?

Diese Angriffe nutzen oft Methoden wie die Fast Gradient Sign Method, bei der nicht zufälliges Rauschen, sondern ein berechneter Gradient verwendet wird. Der Angreifer ermittelt genau, wie die Pixel verändert werden müssen, um die Wahrscheinlichkeit für die korrekte Klasse zu minimieren und für eine falsche Klasse zu maximieren. Es ist vergleichbar mit einer manipulierten Landkarte, die einen Wanderer unbemerkt in die falsche Richtung führt, obwohl er glaubt, den richtigen Weg zu gehen.

Welche Gefahren bergen Adversarial Examples für das autonome Fahren?

In der physischen Welt können solche Manipulationen lebensgefährliche Folgen haben, da autonome Fahrzeuge auf die korrekte Erkennung von Verkehrszeichen angewiesen sind. Forscher haben demonstriert, dass spezielle Aufkleber auf einem Stoppschild dazu führen können, dass die Fahrzeug-KI es fälschlicherweise als Tempolimit interpretiert. Da der KI das kontextuelle Verständnis und der gesunde Menschenverstand fehlen, würde das Auto in einer solchen Situation beschleunigen statt zu bremsen.

Sind Text-KIs wie ChatGPT auch von dem Panda-Effekt betroffen?

Ja, das Prinzip der Adversarial Examples lässt sich auch auf große Sprachmodelle und Generative AI übertragen. Durch sogenannte Jailbreaks oder Prompt Injections werden Texte mit spezifischen Zeichenketten versehen, die die internen Sicherheitsfilter der KI umgehen. Ähnlich wie beim Bildrauschen verschieben diese Eingaben die Vektoren im mathematischen Raum des Modells, sodass die KI manipulative Anweisungen befolgt, die sie eigentlich ablehnen sollte.