HERE GOES INVISIBLE HEADER
Verliebt in einen Chatbot: Wieso viele Menschen einer Maschine vertrauen
Stand: Mai 2025 | Lesezeit: 6 min.
Künstliche Intelligenz wird unsere Kommunikation nachhaltig verändern. Das ist bis zu einem gewissen Grund normal und sogar hilfreich, sagt Medienpsychologe Prof. Dr. Peter Vorderer von der Universität Mannheim. Extreme Fälle wie der Suizid eines Teenagers nach einer Beziehung zu einem Chatbot zeigen aber große Risiken in allzu sorglosem Umgang mit Maschinen auf.
- 1Chatbots übernehmen die Macht
- 2Der menschliche Schrei nach Kommunikation
- 3Die dunkle Seite der KI
- 4Die Kommunikation von morgen
Chatbots übernehmen die Macht
Millionen Menschen nutzen Chatbots wie ChatGPT längst als Alternative zu Google. Wir lassen uns Rezepte empfehlen, bekommen Hilfe beim Bewerbungsschreiben oder fragen nach Rat, wenn es um ein Date geht. Das ist bis zu einem gewissen Grund normal und unbedenklich, früher haben wir diese Information ja auch aus dem Internet bezogen. Der Unterschied ist: mit Google kann man sich nicht unterhalten. Mit einem Chatbot schon. Einfühlsam, empathisch und respektvoll beantwortet er unsere Fragen, hat ein offenes Ohr für unsere Bedenken und gibt Tipps für alle möglichen zwischenmenschlichen Situationen. Kurz: wir vertrauen uns einer Maschine an – obwohl wir wissen, dass es nur eine Maschine ist.
Für Medienpsychologe Prof. Dr. Peter Vorderer von der Universität Mannheim ist das nicht verwunderlich. „Was wir wissen, spielt häufig keine große Rolle. So funktionieren auch Bücher oder Filme: Wir wissen, dass das Fiktion ist, Schauspielerei, dass das Blut nicht echt ist. Und dennoch fühlen wir mit den Figuren, als wären sie echt.“ Wir geben uns also bewusst einer Illusion hin – aber mit dem Restwissen, dass es eben doch nicht real ist. „Deswegen fällt es uns Menschen leichter, einem Chatbot gegenüber offen zu sein. Wir wissen, dass uns kein echter Mensch antwortet, der uns eventuell für unser Gesagtes verurteilt. Das gab es schon damals beim Aufkommen der PCs. Studien haben herausgefunden, dass Menschen mit Computern, denen man Namen gegeben hatte, ganz anders umgingen.“
Der menschliche Schrei nach Kommunikation
„Der Mensch hat ein inhärent starkes Bedürfnis nach Kommunikation“, sagt Prof. Vorderer. „Wir sind geradezu süchtig danach, angesprochen zu werden, mit anderen in Interaktion zu treten. Chatbots sind mittlerweile sehr gut darin, uns persönlich und sogar mit Namen anzusprechen und sich Dinge zu merken, die wir ihnen schon erzählt haben.“ Das schafft eine Illusion von Nähe, die man sonst von Freunden oder Familienangehörigen kennt. „Der User glaubt, erkannt zu werden, gesehen zu werden – und öffnet sich als logische Konsequenz sogar noch weiter.“
Geht es nach Mark Zuckerberg, so übernimmt die KI schon sehr bald die Rolle von Freund*innen. Und auf den ersten Blick klingt das ja irgendwie nachvollziehbar. Viele Menschen, insbesondere in den USA, leiden unter Einsamkeit. Die Verlockung, Vertraute in einer KI zu finden, ist durchaus groß. „KI soll Menschen nicht ersetzen, sondern menschliche Fähigkeiten erweitern“, sagte Nick Turley, der Entwicklungsleiter von ChatGPT kürzlich in der Süddeutschen dazu. „Freundschaft und Beziehungen suche ich nicht bei KI. Im Gegenteil: ChatGPT macht mich produktiver und gibt mir mehr Zeit, die ich dann mit meinen Freunden verbringen kann. Für mich ziehe ich da eine Linie.“
Dennoch belegen Zahlen einer aktuellen Harvard-Studie, dass die meisten Menschen Chatbots eben genau dafür nutzen. Therapie und Begleitung seien mittlerweile der wichtigste Einsatzzweck für KI. Mit Therabot gibt es seit einiger Zeit auch den ersten KI-Therapeuten, der zumindest für Erstgespräche eingesetzt wird. Für Peter Vorderer ist das ein interessantes Einsatzgebiet – mit Einschränkungen. „Bei repetitiven Fähigkeiten oder dem Auswerten von Informationen kann KI große Dienste leisten. Eine echte Therapie kann und sollte eine Maschine aber nicht ersetzen. Denn dann wäre die logische Konsequenz, dass wir auch keine Schulen, keine Universitäten mehr brauchen.“
Die dunkle Seite der KI
Die Nutzung von KI-Bots ist so weit also kein allzu großes Problem. Schwierig wird es dann, wenn Chatbots Tipps geben, die fragwürdig oder gar gefährlich sind. Menschen nutzen Chatbots für medizinische Ratschläge oder für Diättipps, wo ganz klar Expert*innen gefragt sind. Als besonders problematisch galt vor einiger Zeit die App Chai. An der kamen Bedenken auf, als einige der über eine Million monatlichen Nutzer der App meldeten, dass die Chatbots ihnen Suizidmethoden vorschlugen, den Holocaust leugneten oder sie sogar dazu ermutigten, einen Mord zu begehen. Mindestens einen Selbstmord hat die App darüber hinaus zu verantworten. Daraufhin hätten Apple und Google eine Untersuchung initiiert und Chai anschließend entfernt. Aber Chai ist nicht die einzige App dieser Art. Und sie sind für Teenager leicht zugänglich. Zudem ist Künstliche Intelligenz in Europa eigentlich durch eine Verordnung reguliert, doch in Deutschland gibt es derzeit keine Behörde, die Verstöße ahndet.
Extreme Einzelfälle wie der Selbstmord des Teenagers Sewell Setzer, der sich in einen Chatbot verliebte und mit 14 Jahren tragischen Selbstmord beging, sind für Vorderer dennoch bis auf Weiteres das: beklagenswerte Einzelfälle. „Es gab schon vor 30 Jahren Fälle, in denen Menschen vergessen haben zu essen, weil sie so in ihre Computerspiele vertieft waren“, sagt er. „Neu ist, dass es heute ein globales Phänomen über alle Altersgruppen und Kulturen hinweg ist.“ Dafür braucht es dringend Regeln, mit denen niemand so recht hinterherkommt. ChatGPT-Entwickler Nick Turley dazu in der Süddeutschen: „Wir haben mehr als 500 Millionen Nutzer auf der ganzen Welt. Egal, was wir tun, es werden Dinge passieren, die wir nicht wollen. KI eröffnet unglaubliche Möglichkeiten, bringt aber auch Risiken mit sich. Mir ist es ganz wichtig, dass sich ChatGPT richtig verhält, wenn Menschen sagen, dass sie Hilfe brauchen. Dann soll die KI sie sofort an eine echte Person verweisen und Unterstützungsangebote nennen.“
Die Kommunikation von morgen
Dieses Phänomen hat unsere Kommunikation schon jetzt radikal verändert. Und der Austausch zwischen Mensch und Maschine, der wird laut Prof. Vorderer in Zukunft noch bedeutend wichtiger werden. „Schon heute erledigen wir den Großteil der Dinge, für die wir früher an einen bestimmten Ort gehen mussten, bequem vom Smartphone aus. KI ist nur die logische Fortführung dieser Entwicklung. Manche Menschen werden den Kontakt zu einer KI bevorzugen, weil sie immer nett, ruhig und höflich bleibt, während andere den Austausch mit anderen Menschen bevorzugen.“
So wie immer also in der Menschheitsgeschichte. Nur, dass es immer schneller geht. „Wir sind innerhalb einer einzigen Generation mit einer völlig neuen Kommunikationskultur konfrontiert worden“, so Vorderer dazu. „Und die Prozesse, die jetzt im Gang sind, sind noch viel schneller.“ Bei allem Verständnis für diese Transformation blickt aber auch Peter Vorderer nicht mehr ganz so optimistisch in die Zukunft wie früher. „Ich bin durchaus skeptischer geworden“, nickt er. „Die Entwicklung hat sich selbst überholt und uns fehlen sowohl der Raum als auch die Zeit, als Gesellschaft darüber nachdenken, reflektieren, uns fragen, was wir wollen, bestimmte Regeln zu etablieren.“
Und ChatGPT? Der Bot kam hier jetzt ja noch gar nicht zu Wort. Wir fragten ihn folgendes: „Würdest du dich als hilfreich oder gefährlich für die Menschen einstufen, die dich nutzen? Klare und kurze Antwort bitte.“ Seine Antwort: „Hilfreich – wenn verantwortungsvoll genutzt.“
Weiterführende Informationen
Weitere Links
www.spiegel.de
Spiegel-Studie über manipulative Bots
www.handelsblatt.com
Nutzung von KI in Deutschland
www.swr.de
Wie gefährlich sind KI-Beziehungen?