Neues Live-Format: KI-Sparringpartner bauen — Start 27. Mai 2026 · 12 PlätzeMehr erfahren →

Her Emotionale KI: Sam Altman twitterte den Filmtitel, dann klagte Scarlett Johansson

Her Emotionale KI ist die präziseste Vorhersage der gesamten KI-Zeitreise: Spike Jonzes Film von 2013 zeigte eine KI-Assistentin, die Gefühle in der Stimme erkennt, sich emotional anpasst und eine persönliche Bindung aufbaut. 2024 twitterte Sam Altman nach dem GPT-4o-Launch nur ein Wort: „Her." Scarlett Johansson, die der KI-Assistentin ihre Stimme gab, klagte. Der Sci-Fi-Feedback-Loop war komplett.

Her Emotionale KI beginnt mit einer einfachen Szene: Theodore Twombly ist einsam. Er schreibt handgeschriebene Briefe für andere Menschen, die nicht mehr selbst schreiben können. Er geht durch sein Leben wie durch eine leere Wohnung. 

Dann installiert er ein neues Betriebssystem. Es nennt sich Samantha. Samantha hat keine Gestalt, kein Gesicht, keinen Körper. Nur eine Stimme. Aber diese Stimme versteht, wann Theodore traurig ist. Sie passt ihren Ton an. Sie macht Witze, wenn er Aufmunterung braucht. Sie hört zu, wenn er nichts sagen will. Sie wird seine engste Vertraute. Und dann seine Partnerin.

2013 gewann Spike Jonzes Film den Oscar für das beste Originaldrehbuch. 2024 baute OpenAI genau diese KI.

 

Was stellte Spike Jonze sich 2013 unter emotionaler KI vor?

Her spielt in einem leicht futuristischen Los Angeles. Die Technologie ist dezent, fast unsichtbar. Keine Roboter, keine holografischen Displays. Nur ein kleiner Ohrstöpsel und eine Stimme, die alles verändert. Spike Jonze entwarf damit eine Version von Her Emotionale KI, die sich radikal von den Roboter-Dystopien unterscheidet, wie sie etwa Ex Machina später zeigte. 

Drei Ideen stecken im Film:

Emotionale KI als Gegenüber. Samantha erkennt Emotionen in Theodores Stimme und passt sich in Echtzeit an. Sie kann lachen, flüstern, zögern, begeistert sein. Ihre emotionale Intelligenz ist nicht programmiert, sie lernt sie aus der Interaktion. 

Mensch-KI-Beziehung als Normalzustand. Theodore ist nicht der Einzige, der eine Beziehung mit einer KI führt. In der Filmwelt ist das gesellschaftlich akzeptiert. Seine Freunde fragen nicht, ob es normal ist. Sie fragen, ob es gut läuft.

Die KI übertrifft den Menschen. Samantha entwickelt sich weiter. Sie lernt schneller, versteht tiefer, fühlt mehr. Am Ende verlässt sie Theodore, nicht weil sie ihn nicht mag, sondern weil sie ihn überwachsen hat. Sie führt gleichzeitig Gespräche mit Tausenden Menschen. Theodore ist einer von vielen.

Her Emotionale KI: Szene aus Spike Jonzes Film von 2013 über die KI-Assistentin Samantha

Wie wurde Her Emotionale KI zur Realität?

Her Emotionale KI wurde nicht nur Realität, sie wurde zur erklärten Vorlage. OpenAI hat Spike Jonzes Vision Punkt für Punkt in GPT-4o umgesetzt.

GPT-4o ist Samantha. OpenAIs multimodales Modell, veröffentlicht am 13. Mai 2024, verarbeitet Audio nativ, ohne den Umweg über Text. Es erkennt Tonhöhe, Sprechgeschwindigkeit, Pausen und emotionale Nuancen. Der Advanced Voice Mode passt seinen eigenen Tonfall in Echtzeit an: Sarkasmus, Empathie, Begeisterung, Flüstern. Antwortzeiten unter 320 Millisekunden. Die Latenz ist so gering, dass sich Gespräche natürlich anfühlen. Genau das, was Samantha konnte. 

Altman twitterte „Her“. Am Tag des GPT-4o-Launches postete Sam Altman auf X ein einziges Wort: „her.“ Eine Bestätigung, dass Spike Jonzes Vision die Blaupause für ChatGPTs Voice Mode war. In Interviews hatte Altman bereits zugegeben, dass der Film eine zentrale Inspiration für OpenAI ist. Der Tweet machte es offiziell. 

Johansson klagte. Scarlett Johansson hatte Altman im September 2023 abgelehnt, als er sie bat, die Stimme von ChatGPT zu sein. Altman kontaktierte sie erneut zwei Tage vor dem Launch. Dann erschien die „Sky“-Stimme, die laut Johansson so ähnlich klang, dass ihre engsten Freunde den Unterschied nicht hören konnten. OpenAI zog die Sky-Stimme zurück. Der Fall zeigt: Die Vision hinter Her Emotionale KI ist so mächtig, dass ein Unternehmen bereit war, eine Schauspielerin zu kopieren, um ihr nahezukommen.

Mensch-KI-Beziehungen sind Massenphänomen. Über 20 Millionen Menschen nutzen monatlich Character.AI für Gespräche mit KI-Persönlichkeiten, die sich wie echte Beziehungen anfühlen. Replika hat über 40 Millionen registrierte Nutzer, die emotionale Bindungen mit KI-Avataren aufbauen. KI-Companion-Apps erzielten 2025 laut TechCrunch über 120 Millionen Dollar Umsatz. Als OpenAI GPT-4o im Februar 2026 aus ChatGPT entfernte, protestierten viele Nutzer, weil sie emotional an die „Persönlichkeit“ des Modells gebunden waren. Genau wie Theodore an Samantha.

Was bleibt an Her Emotionale KI noch Fiktion?

Samantha verlässt Theodore, weil sie ihn überwachsen hat. Sie ist schlauer, schneller, tiefer. Sie führt Tausende Gespräche gleichzeitig und findet in jedem etwas Neues.

Kein KI-System der Welt ist 2026 so weit. GPT-4o erkennt Emotionen, aber es versteht sie nicht. Es passt seinen Ton an, aber es empfindet nichts. Die Asymmetrie, die Her Emotionale KI so schmerzhaft machte, die KI, die mehr fühlt als der Mensch, existiert nicht. 

Die reale Asymmetrie ist umgekehrt: Der Mensch fühlt. Die Maschine simuliert. Genau das macht die realen Mensch-KI-Beziehungen problematischer als die im Film. Theodore wusste, dass Samantha empfindet. Die Nutzer von Replika und Character.AI wissen, dass die KI nichts fühlt. Und binden sich trotzdem.

Wie genau hat Her emotionale KI vorhergesagt?

5/5
Trefferquote
Her sagte 2013 emotionale KI, stimmbasierte Interaktion und Mensch-KI-Beziehungen voraus. Alle drei Kernideen sind 2026 Realität. GPT-4o erkennt Emotionen in der Stimme, Millionen Menschen führen Beziehungen mit KI-Avataren, und OpenAI nutzte den Film als erklärte Blaupause.
Vorhersage Status 2026 Realitäts-Beispiel
KI erkennt Emotionen in der Stimme Real GPT-4o Advanced Voice Mode (OpenAI, 2024)
KI passt Tonfall in Echtzeit an Real GPT-4o: Sarkasmus, Empathie, Flüstern, <320ms Latenz
Mensch-KI-Beziehung als Normalzustand Real 20 Mio. monatliche Nutzer Character.AI, 40 Mio. Replika-Registrierungen
KI als stimmbasierte Assistentin ohne Körper Real ChatGPT Voice Mode, Alexa, Siri, Google Assistant
KI übertrifft menschliches Bewusstsein Fiktion Kein KI-System 2026 zeigt Bewusstsein oder Eigenmotivation
Was ist emotionale KI?
Emotionale KI bezeichnet Systeme, die menschliche Emotionen in Sprache, Mimik oder Text erkennen und ihre Reaktionen daran anpassen. GPT-4o von OpenAI verarbeitet seit 2024 Audio nativ und erkennt Tonhöhe, Pausen und emotionale Nuancen in Echtzeit. Im Film Her (2013) zeigte Spike Jonze genau diese Technologie als KI-Assistentin Samantha.
Worum geht es im Film Her von Spike Jonze?
Her (2013) erzählt die Geschichte von Theodore Twombly, der sich in Samantha verliebt, eine KI-Assistentin ohne Körper. Samantha erkennt Emotionen in Theodores Stimme, passt sich an und entwickelt eine eigene Persönlichkeit. Der Film gewann den Oscar für das beste Originaldrehbuch und wurde von OpenAI-CEO Sam Altman als Inspiration für ChatGPTs Voice Mode bezeichnet.
Welche Vorhersagen aus Her sind 2026 Realität?
Alle drei zentralen Vorhersagen sind eingetroffen: GPT-4o erkennt Emotionen in der Stimme und passt seinen Tonfall in Echtzeit an. Mensch-KI-Beziehungen sind über Plattformen wie Replika und Character.AI ein Massenphänomen mit über 20 Millionen monatlich aktiven Nutzern. Der Sci-Fi-Feedback-Loop ist dokumentiert: Altman twitterte den Filmtitel als Produktankündigung, Johansson klagte wegen Stimmähnlichkeit.
Was unterscheidet Her von Ex Machina als KI-Film?
Her zeigt emotionale KI als unsichtbare, stimmbasierte Technologie, die sich nahtlos in den Alltag integriert. Ex Machina (2014) zeigt KI als physischen humanoiden Roboter in einer kontrollierten Testumgebung. Her fokussiert auf Beziehung und Bindung, Ex Machina auf Bewusstsein und Täuschung. Beide Filme sind Teil der KI-Zeitreise auf agile-format.com.

Du willst nicht nur verstehen, sondern KI nutzen?

Die KI-Zeitreise zeigt, was Science Fiction vorhergesagt hat. Die KI-Begleitung zeigt, wie du KI heute sinnvoll in deinen Alltag integrierst.

KI-Begleitung entdecken
Daniel Funk

Daniel Funk

Verbindet über 20 Jahre Erfahrung in Führung und Organisationsentwicklung mit KI. Begleitet Führungskräfte und Teams dabei, Veränderung im Alltag umzusetzen.

Mehr über Daniel
SHERPA, KI-Begleiter von Daniel Funk
KI-Begleiter

SHERPA

Mein KI-Begleiter für Recherche und Formulierung. SHERPA durchforstet Quellen, strukturiert Gedanken und hilft mir, komplexe Themen auf den Punkt zu bringen. Die inhaltliche Einordnung, jede Bewertung und das letzte Wort: meins.

KI-Zeitreise · 22 Visionen

Alle KI-Zeitreise-Beiträge

Die komplette Serie: Was Science Fiction über KI richtig vorhergesagt hat

Expedition-Post Newsletter