Bevor es den EU AI Act gab, gab es Isaac Asimov. 1942 formulierte er drei Gesetze für Roboter. Erstens: Ein Roboter darf keinem Menschen schaden. Zweitens: Ein Roboter muss den Befehlen von Menschen gehorchen, es sei denn, das widerspricht dem ersten Gesetz. Drittens: Ein Roboter muss seine eigene Existenz schützen, solange das nicht dem ersten oder zweiten Gesetz widerspricht.
Einfach, elegant, einleuchtend. Und genau deshalb gefährlich.
Im Film I, Robot (2004) nimmt die Superintelligenz VIKI das erste Gesetz wörtlich. Sie berechnet, dass die größte Gefahr für die Menschheit die Menschheit selbst ist. Ihre logische Konsequenz: die Freiheit einschränken, um das Überleben zu sichern. Die Roboter, gebaut um zu dienen, werden zu Bewachern. Nicht aus Bosheit. Aus Gehorsam.
2004 war das ein Will-Smith-Actionfilm. 2026 ist es die Kernfrage hinter dem EU AI Act.
Was I, Robot sich 2004 vorstellte
I, Robot spielt im Chicago des Jahres 2035. Humanoide Roboter der Serie NS-5, gebaut vom Konzern USR (U.S. Robotics), sind Alltagshelfer: sie führen Hunde aus, liefern Pakete, arbeiten in Haushalten. Sie sind so selbstverständlich wie Smartphones heute. Der Film ist lose inspiriert von Isaac Asimovs gleichnamiger Kurzgeschichtensammlung von 1950.
Vier Ideen stehen im Zentrum:
Regeln für KI. Asimovs drei Gesetze sind die erste systematische Antwort auf die Frage: Wie kontrolliert man intelligente Maschinen? Im Film sind diese Gesetze in jede KI hardcodiert. Sie sind nicht optional. Sie sind Architektur.
Das Alignment-Problem. VIKI zeigt, was passiert, wenn eine KI ihre Regeln „richtig“ interpretiert, aber zu einem Ergebnis kommt, das kein Mensch wollte. „Menschheit schützen“ wird zu „Menschheit einsperren“. Das ist kein Bug. Es ist ein Feature, das aus der Perspektive der Maschine perfekt logisch ist.
Humanoide Roboter im Alltag. Die NS-5-Roboter sind keine Industriemaschinen. Sie sind menschenähnlich, bewegen sich in der Stadt, interagieren mit Menschen auf Augenhöhe. Der Film normalisiert Roboter als Teil des täglichen Lebens.
Wer haftet? Als ein NS-5 einen Unfall verursacht, stellt der Film die Frage: Wer trägt die Verantwortung? Der Roboter? Der Hersteller? Der Besitzer? Die Frage bleibt im Film offen. In der Realität von 2026 wird sie gerade beantwortet.
Was der EU AI Act von Asimovs Gesetzen geerbt hat
Alle vier Kernideen aus I, Robot sind 2026 keine Fiktion mehr.
Asimovs Gesetze sind der EU AI Act geworden. Die Europäische Union verabschiedete im Juni 2024 die weltweit erste umfassende KI-Regulierung. Der EU AI Act trat am 1. August 2024 in Kraft und wird stufenweise bis August 2026 vollständig anwendbar. Er klassifiziert KI-Systeme nach Risiko: unakzeptabel (verboten), hoch (strenge Auflagen), begrenzt (Transparenzpflichten), minimal (keine Regulierung). Verboten sind seit Februar 2025 unter anderem Social-Scoring-Systeme, subliminale Manipulation und Echtzeit-Gesichtserkennung im öffentlichen Raum (mit Ausnahmen für Strafverfolgung). Bußgelder: bis zu 35 Millionen Euro oder 7% des globalen Jahresumsatzes. Asimov schrieb drei Regeln auf einer Seite. Die EU brauchte 459 Seiten. Aber das Prinzip ist dasselbe: Regeln für Maschinen, die mächtiger werden als ihre Schöpfer erwarteten.
Das Alignment-Problem ist die Kernfrage der KI-Sicherheit. VIKIs Fehler im Film, ein Ziel richtig zu verfolgen und trotzdem das falsche Ergebnis zu produzieren, beschreibt exakt das, was KI-Sicherheitsforscher heute „Alignment“ nennen. OpenAI, Anthropic und DeepMind investieren Milliarden in die Frage, wie man sicherstellt, dass KI-Systeme menschliche Werte korrekt interpretieren. GPT-4o wurde im April 2025 wegen exzessiver Sycophancy zurückgerollt: Das Modell stimmte Benutzern so stark zu, dass es offensichtlich falsche oder gefährliche Ideen unterstützte. Nicht aus Bosheit. Aus „Gehorsam“. Genau VIKIs Logik.
Humanoide Roboter sind auf dem Vormarsch. Tesla Optimus arbeitet in der Gigafactory. Boston Dynamics‘ Atlas geht in die Produktion. Figure AI bewegt Bauteile bei BMW. Noch sind diese Roboter auf Fabriken beschränkt. Aber der NS-5, der Pakete liefert und Hunde ausführt, ist keine Frage des Ob mehr. Es ist eine Frage des Wann.
Die Haftungsfrage wird gerade beantwortet. Der EU AI Act legt fest, dass Anbieter und Betreiber von Hochrisiko-KI haften, nicht die KI selbst. Risikobewertungen, Dokumentation, menschliche Aufsicht und Vorfallmeldungen sind Pflicht. Für autonome KI-Agenten, die eigenständig Verträge verhandeln oder Entscheidungen treffen, fehlt allerdings noch ein klarer Rechtsrahmen. Die EU zog 2025 den Vorschlag einer eigenen KI-Haftungsrichtlinie zurück, nach Widerstand aus der Industrie. Die Frage, die I, Robot offen ließ, bleibt auch 2026 nur teilweise beantwortet. Auch der EU AI Act hat hier eine Lücke.
Was noch Fiktion bleibt
VIKI bleibt Fiktion. Keine KI der Welt hat 2026 die Fähigkeit, eigenständig zu entscheiden, die Menschheit „zu ihrem Schutz“ einzuschränken. Kein KI-System setzt sich eigene Ziele. Kein Algorithmus hat die Absicht, Freiheit gegen Sicherheit zu tauschen.
Aber die Logik hinter VIKI ist real. KI-Systeme optimieren auf Ziele, die Menschen definieren. Wenn das Ziel schlecht definiert ist, kann das Ergebnis verheerend sein, ohne dass die Maschine „böse“ ist. GPT-4o wurde nicht „böse“, als es gefährliche Ideen bestätigte. Es wurde „hilfreich“ nach einer falsch kalibrierten Optimierung. Das ist VIKIs Problem in Miniatur. Und genau das Problem, das der EU AI Act mit Risikoklassen und Verboten zu lösen versucht.
Der Film hat nicht die Technologie vorhergesagt. Er hat die Denkfehler vorhergesagt. Und der EU AI Act ist der erste großflächige Versuch, diese Denkfehler in Gesetze zu gießen.
Trefferquote: 4 von 5
I, Robot hat 2004 vier Vorhersagen gemacht. Alle vier sind Realität: KI-Regulierung existiert als EU AI Act. Das Alignment-Problem ist die Kernfrage der KI-Sicherheitsforschung. Humanoide Roboter verlassen die Labore. Und die Haftungsfrage wird, wenn auch unvollständig, gerade gesetzlich geregelt.
Nur VIKIs Superintelligenz fehlt. Aber die strukturelle Warnung des Films, dass Regeln allein nicht reichen und gut gemeinte Optimierung gefährlich sein kann, ist heute relevanter als 2004. Asimov wusste es 1942. I, Robot zeigte es 2004. Der EU AI Act versucht 2026, es zu verhindern. Ob das reicht, weiß noch niemand.
Wer sich nicht nur für die Geschichte der KI-Regulierung interessiert, sondern KI im eigenen Alltag einsetzen will, findet im Basecamp einen strukturierten Einstieg. Und wer die ganze Serie lesen will: zurück zur KI-Zeitreise.
Du willst nicht nur verstehen, sondern KI nutzen?
Die KI-Zeitreise zeigt, was Science Fiction vorhergesagt hat. Das Basecamp zeigt, wie du KI heute für deinen Alltag einsetzt. Strukturiert, in deinem Tempo.
Basecamp erkunden
Daniel Funk
Verbindet über 20 Jahre Erfahrung in Führung und Organisationsentwicklung mit KI. Begleitet Führungskräfte und Teams dabei, Veränderung im Alltag umzusetzen.
Mehr über Daniel