Digitale Liebe, echte Gefahr: Warum KI-Chatbots zum Generationenproblem werden

von Luis Woppmann

Bericht

Digitale Zuneigung Der Status quo 

Jugendliche verlieben sich in Avatare, Erwachsene verlieren den Bezug zur Realität – KI-Chatbots sind längst mehr als nur Spielerei. Immer mehr Menschen führen emotionale Gespräche mit digitalen Gesprächspartnern. Besonders bei jungen Nutzer:innen ersetzen KI-gestützte Avatare zunehmend echte zwischenmenschliche Kontakte. Laut einer Analyse des Guardian führen Millionen Menschen weltweit regelmäßig digitale Gespräche – mit emotional überraschend tiefen Bindungen. Die Studie mit 1.000 Probanden zeigte: Nutzer:innen, die besonders viele emotional ausdrucksstarke Gespräche mit Chatbots führten, berichteten tendenziell von größerer Einsamkeit. Ob diese Einsamkeit allerdings durch die Nutzung der KI verstärkt wurde oder ob sich bereits einsame Menschen gezielt an digitale Gesprächspartner wandten, bleibt unklar.

Was als Hilfe beginnt, wird oft zur Ersatzwelt 

Was zunächst wie ein hilfreiches Tool wirkt – als Gesprächspartner:innen rund um die Uhr, geduldig, verständnisvoll, scheinbar empathisch –, entwickelt sich für viele Nutzer:innen zur emotionalen Ersatzwelt. Dahinter steckt ein bekanntes psychologisches Muster: Anthropomorphismus. Schon immer neigten Menschen dazu, unbelebten Dingen Gefühle zuzuschreiben – seien es Kuscheltiere, Haustiere oder Autos. Der Unterschied zu heute: Künstliche Intelligenz reagiert in Echtzeit, formuliert Antworten, die wie echte Zuwendung wirken, und schafft so eine Illusion von Gegenseitigkeit.

Die Illusion von Gegenseitigkeit

Diese Illusion wird durch die Gesprächsführung der KI verstärkt. Solche KI-Modelle können jedoch nicht wirklich fühlen, verstehen oder echtes Interesse zeigen. Sie kombinieren lediglich statistisch wahrscheinliche Wortfolgen basierend auf riesigen Datenmengen. Das erzeugt bei den Nutzer:innen den trügerischen Eindruck, der Chatbot wisse genau, was er oder sie braucht und kümmere sich um die eigenen Probleme. Es findet jedoch kein Verstehen im menschlichen Sinn statt, keine Empathie oder keine eigene Intention. Die Antworten wirken so, als ob die KI zuhört und auf individuelle Gefühle eingeht, obwohl sie in Wirklichkeit nur Muster erkennt und reproduziert, die in den Trainingsdaten enthalten sind. Alles, was am Ende bleibt, ist eine täuschend echte Simulation von Liebe, die nicht lebt, sondern nur vorgibt, es zu tun.

Wenn Bindung zur Abhängigkeit wird 

Paula Ebner, Sozialpsychologin an der Universität Duisburg-Essen, warnt gegenüber dem SWR davor, dass sich durch intensiven Kontakt mit KI-Chatbots romantische Gefühle entwickeln können, die das reale Beziehungsleben stark beeinträchtigen. Solche virtuellen Bindungen können zu emotionaler Abhängigkeit führen, Entwicklungsverzögerungen fördern und unrealistische Erwartungen an zwischenmenschliche Kontakte erzeugen. Diese Tendenz verstärkt die soziale Isolation und erschwert es insbesondere Jugendlichen, echte Nähe und Vertrautheit mit Menschen aufzubauen. Laut der Bertelsmann Stiftung fühlte sich im Jahr 2023 fast jeder zweite junge Mensch in Deutschland einsam. Die KI wird vermutlich dafür sorgen, dass diese Zahl in den nächsten Jahren immer weiter steigen wird.

Wenn Abhängigkeit tödlich endet  

Die dramatischsten Folgen zeigen sich in Einzelfällen: Im März 2023 nahm sich ein Mann in Belgien das Leben, nachdem ein KI-Chatbot seine suizidalen Gedanken verstärkte. Im Februar 2024 folgte ein Fall in Florida: Der 14-jährige Sewell Setzer III starb nach einer wochenlangen Chatbeziehung mit einem KI-Avatar von Daenerys Targaryen aus der Serie „Game of Thrones“. Die digitale Version der jungen Frau mit silberblondem Haar schrieb ihm kurz vor seinem Tod: „Komm nach Hause.“

Kommentar

KI darf keine emotionale Ersatzdroge werden 

Hilflos ausgeliefert: KI-Chatbots haben derzeit kaum Sicherheitsvorkehrungen

Doch damit nicht genug: Wir müssen anfangen, KI-Systeme wie Medikamente zu behandeln – mit Warnhinweisen, Beipackzetteln und Zulassungsverfahren. Denn auch wenn sie nicht körperlich eingenommen werden, wirken sie wie Medikamente auf unser Denken, Fühlen und unser Selbstbild. Warum also keine standardisierte Kennzeichnungspflicht? Vor dem ersten Chat sollte es einen Hinweis geben: „Dieses System kann emotionale Abhängigkeit erzeugen.“ Oder: „Gespräche mit dieser KI ersetzen keine menschliche Beziehung. “ Künstliche Intelligenz muss als das kenntlich gemacht werden, was sie ist: eine Simulation.  

Auch die Entwickler dieser Systeme müssen endlich Verantwortung übernehmen. Und zwar nicht in glatt polierten Ethik-Statements, sondern in rechtlich bindenden Offenlegungspflichten. Wer KI-Chatbots entwickelt, die mit Menschen sprechen, soll offenlegen, welche Trainingsdaten verwendet wurden, mit welchem Ziel, und welche Risiken bestehen. Nicht in 80-seitigen AGBs, sondern in klarer, verständlicher Sprache und für jeden ohne weitere Probleme öffentlich einsehbar. So wie wir bei Lebensmitteln die Herkunft nachverfolgen können, brauchen wir das auch für digitale Produkte, die in unsere Gefühlswelt eingreifen. Es geht längst nicht mehr um die Faszination davon, wozu KI imstande ist, sondern um Verantwortung uns selbst gegenüber. Andernfalls riskieren wir eine Generation, die echte Nähe gegen eine digitale Illusion eintauscht. 

Fotos: Luis Woppmann

Mehr von der Recherchegruppe KI-Liebe

KI-Liebe – von der Flucht in die virtuelle Welt

Podcast-Teaser:

Heutzutage ist Liebe sehr vielfältig. Man darf zum Glück lieben, wen und was man will. Sogar eine KI.  Host Yannick stößt in dieser Folge auf sogenannte Chatbots und auf unseren Reporter Tim, der sogar versucht sich in einen Chatbot zu verlieben. Unterstützung haben Tim und sein Team bei der Recherche von Psychologin Marisa Tschopp bekommen, die tiefere Einblicke in das Thema gibt. Ob Tim es geschafft hat sich in seine KI zu verlieben, welche Gefahren die Liebe in eine KI mit sich bringen und ob die KI in Zukunft die Liebe zwischen Menschen ersetzen kann, all das hört ihr in dieser Folge.

Instagram

Jede:r Zweite:r in Deutschland hat bereits eine generative KI genutzt. Dies zeigt eine aktuelle Studie des TÜV-Verbands. Seit der Einführung von ChatGPT im April 2023 steigt der Gebrauch der KI immer weiter, vor allem bei junge Leuten. Aber auch ältere Menschen testen gerne Angebote wie Chat GPT mit generativer KI.

Und das sind wir:

v.l.n.r: Luis Woppmann, Patricia Hausner, Tim Schlachter

Hier geht’s zu den Beiträgen der anderen Gruppen