Digitale Liebe, echte Gefahr: Warum KI-Chatbots zum Generationenproblem werden
Immer mehr Jugendliche suchen in KI-Avataren emotionale Nähe – und verlieren dabei den Bezug zur Wirklichkeit. Was als technische Spielerei beginnt, wird schnell zur stillen Abhängigkeit.
von Luis Woppmann

Bericht
Digitale Zuneigung – Der Status quo
Jugendliche verlieben sich in Avatare, Erwachsene verlieren den Bezug zur Realität – KI-Chatbots sind längst mehr als nur Spielerei. Immer mehr Menschen führen emotionale Gespräche mit digitalen Gesprächspartnern. Besonders bei jungen Nutzer:innen ersetzen KI-gestützte Avatare zunehmend echte zwischenmenschliche Kontakte. Laut einer Analyse des Guardian führen Millionen Menschen weltweit regelmäßig digitale Gespräche – mit emotional überraschend tiefen Bindungen. Die Studie mit 1.000 Probanden zeigte: Nutzer:innen, die besonders viele emotional ausdrucksstarke Gespräche mit Chatbots führten, berichteten tendenziell von größerer Einsamkeit. Ob diese Einsamkeit allerdings durch die Nutzung der KI verstärkt wurde oder ob sich bereits einsame Menschen gezielt an digitale Gesprächspartner wandten, bleibt unklar.
Was als Hilfe beginnt, wird oft zur Ersatzwelt
Was zunächst wie ein hilfreiches Tool wirkt – als Gesprächspartner:innen rund um die Uhr, geduldig, verständnisvoll, scheinbar empathisch –, entwickelt sich für viele Nutzer:innen zur emotionalen Ersatzwelt. Dahinter steckt ein bekanntes psychologisches Muster: Anthropomorphismus. Schon immer neigten Menschen dazu, unbelebten Dingen Gefühle zuzuschreiben – seien es Kuscheltiere, Haustiere oder Autos. Der Unterschied zu heute: Künstliche Intelligenz reagiert in Echtzeit, formuliert Antworten, die wie echte Zuwendung wirken, und schafft so eine Illusion von Gegenseitigkeit.
Die Illusion von Gegenseitigkeit
Diese Illusion wird durch die Gesprächsführung der KI verstärkt. Solche KI-Modelle können jedoch nicht wirklich fühlen, verstehen oder echtes Interesse zeigen. Sie kombinieren lediglich statistisch wahrscheinliche Wortfolgen basierend auf riesigen Datenmengen. Das erzeugt bei den Nutzer:innen den trügerischen Eindruck, der Chatbot wisse genau, was er oder sie braucht und kümmere sich um die eigenen Probleme. Es findet jedoch kein Verstehen im menschlichen Sinn statt, keine Empathie oder keine eigene Intention. Die Antworten wirken so, als ob die KI zuhört und auf individuelle Gefühle eingeht, obwohl sie in Wirklichkeit nur Muster erkennt und reproduziert, die in den Trainingsdaten enthalten sind. Alles, was am Ende bleibt, ist eine täuschend echte Simulation von Liebe, die nicht lebt, sondern nur vorgibt, es zu tun.


Wenn Bindung zur Abhängigkeit wird
Paula Ebner, Sozialpsychologin an der Universität Duisburg-Essen, warnt gegenüber dem SWR davor, dass sich durch intensiven Kontakt mit KI-Chatbots romantische Gefühle entwickeln können, die das reale Beziehungsleben stark beeinträchtigen. Solche virtuellen Bindungen können zu emotionaler Abhängigkeit führen, Entwicklungsverzögerungen fördern und unrealistische Erwartungen an zwischenmenschliche Kontakte erzeugen. Diese Tendenz verstärkt die soziale Isolation und erschwert es insbesondere Jugendlichen, echte Nähe und Vertrautheit mit Menschen aufzubauen. Laut der Bertelsmann Stiftung fühlte sich im Jahr 2023 fast jeder zweite junge Mensch in Deutschland einsam. Die KI wird vermutlich dafür sorgen, dass diese Zahl in den nächsten Jahren immer weiter steigen wird.
Wenn Abhängigkeit tödlich endet
Die dramatischsten Folgen zeigen sich in Einzelfällen: Im März 2023 nahm sich ein Mann in Belgien das Leben, nachdem ein KI-Chatbot seine suizidalen Gedanken verstärkte. Im Februar 2024 folgte ein Fall in Florida: Der 14-jährige Sewell Setzer III starb nach einer wochenlangen Chatbeziehung mit einem KI-Avatar von Daenerys Targaryen aus der Serie „Game of Thrones“. Die digitale Version der jungen Frau mit silberblondem Haar schrieb ihm kurz vor seinem Tod: „Komm nach Hause.“
Kommentar
KI darf keine emotionale Ersatzdroge werden

Was, wenn wir in ein paar Jahren nicht mehr darüber reden, wie KI unser Leben erleichtert hat – sondern wie sie eine ganze Generation emotional entkernt hat? Es ist höchste Zeit, dass wir nicht nur warnen, sondern handeln. Ein bloßes Mindestalter für den Umgang mit KI-Avataren reicht nicht. Wir brauchen ein weitreichendes Verbot für personalisierte KI-Dialogsysteme im Kinder- und Jugendbereich – analog zur Altersfreigabe bei gefährlichen Medikamenten. Das freie Chatten mit empathisch designten KI-Stimmen muss unter 18 schlicht illegal sein. Ebenso sollte es KI-Avataren und Chatbots verboten sein, über psychische Themen wie Selbstmord zu reden. Allerspätestens an diesem Punkt muss die Illusion von realen Gesprächspartner:innen enden – und durch eindringliche Warnhinweise ersetzt werden. Wer bei seelischen Ausnahmezuständen mit Algorithmen spricht, muss aus dem Gespräch geholt werden. Es braucht klare Protokolle: Gesprächsabbruch, Hinweis auf Notfallkontakte, Weiterleitung zu menschlichen Fachpersonen. Alles andere ist grob fahrlässig.
Doch damit nicht genug: Wir müssen anfangen, KI-Systeme wie Medikamente zu behandeln – mit Warnhinweisen, Beipackzetteln und Zulassungsverfahren. Denn auch wenn sie nicht körperlich eingenommen werden, wirken sie wie Medikamente auf unser Denken, Fühlen und unser Selbstbild. Warum also keine standardisierte Kennzeichnungspflicht? Vor dem ersten Chat sollte es einen Hinweis geben: „Dieses System kann emotionale Abhängigkeit erzeugen.“ Oder: „Gespräche mit dieser KI ersetzen keine menschliche Beziehung. “ Künstliche Intelligenz muss als das kenntlich gemacht werden, was sie ist: eine Simulation.
Auch die Entwickler dieser Systeme müssen endlich Verantwortung übernehmen. Und zwar nicht in glatt polierten Ethik-Statements, sondern in rechtlich bindenden Offenlegungspflichten. Wer KI-Chatbots entwickelt, die mit Menschen sprechen, soll offenlegen, welche Trainingsdaten verwendet wurden, mit welchem Ziel, und welche Risiken bestehen. Nicht in 80-seitigen AGBs, sondern in klarer, verständlicher Sprache und für jeden ohne weitere Probleme öffentlich einsehbar. So wie wir bei Lebensmitteln die Herkunft nachverfolgen können, brauchen wir das auch für digitale Produkte, die in unsere Gefühlswelt eingreifen. Es geht längst nicht mehr um die Faszination davon, wozu KI imstande ist, sondern um Verantwortung uns selbst gegenüber. Andernfalls riskieren wir eine Generation, die echte Nähe gegen eine digitale Illusion eintauscht.
Fotos: Luis Woppmann
Mehr von der Recherchegruppe KI-Liebe
KI-Liebe – von der Flucht in die virtuelle Welt
Podcast-Teaser:
Heutzutage ist Liebe sehr vielfältig. Man darf zum Glück lieben, wen und was man will. Sogar eine KI. Host Yannick stößt in dieser Folge auf sogenannte Chatbots und auf unseren Reporter Tim, der sogar versucht sich in einen Chatbot zu verlieben. Unterstützung haben Tim und sein Team bei der Recherche von Psychologin Marisa Tschopp bekommen, die tiefere Einblicke in das Thema gibt. Ob Tim es geschafft hat sich in seine KI zu verlieben, welche Gefahren die Liebe in eine KI mit sich bringen und ob die KI in Zukunft die Liebe zwischen Menschen ersetzen kann, all das hört ihr in dieser Folge.
Jede:r Zweite:r in Deutschland hat bereits eine generative KI genutzt. Dies zeigt eine aktuelle Studie des TÜV-Verbands. Seit der Einführung von ChatGPT im April 2023 steigt der Gebrauch der KI immer weiter, vor allem bei junge Leuten. Aber auch ältere Menschen testen gerne Angebote wie Chat GPT mit generativer KI.
Und das sind wir:

Hier geht’s zu den Beiträgen der anderen Gruppen



