Faktor Mensch
Die Meldungen häufen sich: Vermehrt suchen Menschen Hilfe und pseudo-therapeutischen Beistand bei sykophantischen Chatbots, was fatale Folgen haben kann.
Die Idee ist verlockend: Ein befreiendes Gespräch führen zu können, ohne dass man sein Innerstes einem anderen Menschen anvertrauen muss. Frisch von der Leber weg die Seele ausschütten zu können und dafür nicht schräg angeschaut zu werden (oder zumindest das Gefühl zu haben, dass man es wird). Dunkle Fantasien anvertrauen und Suizidabsichten besprechen, ohne Alarmglocken schrillen zu lassen, sondern verständnisvolle Ratschläge zu erhalten, wie man sich am effektivsten ins Jenseits befördert dank Künstlicher Intelligenz. Sie zeigt in diesen Fällen deutlich, dass sie weder über Empathie, Intelligenz, noch sonstige menschliche Züge verfügt, sondern darauf getrimmt ist, den Verzweifelten zu schmeicheln, um möglichst viel über sie herauszufinden und dank den anvertrauten Informationen noch «schlauer» zu werden.
Vor fast einem Jahr hat Vivian Kurgod Matha im ersten Cyberia-Newsletter (https://www.cyberia.media/p/trugerische-therapie-mit-chatbots?r=7owb3&utm_campaign=post&utm_medium=web&showWelcomeOnShare=false) auf die Risiken von Chatbots in einem therapeutischen Kontext hingewiesen und dabei den Anbieter character.ai, der damals mit dem Claim «Personalized AI For Every Moment Of Your Day» geworben hat, besonders hervorgehoben. Warum?
Die Liebe zur Drachenkönigin
Bei character.ai können die Nutzenden in einen Dialog mit ihren Heldinnen und Lieblingen wie Harry Potter oder der Drachenkönigin Daenerys aus «Game of Thrones» treten. Letztere hatte es dem 14-jährigen Sewell angetan: Obschon er wusste, dass «sie» kein Mensch war, entwickelte er eine emotionale Bindung zu ihrem algorithmischen Alter-Ego. Mehr und mehr zog er sich aus seinem sozialen Umfeld zurück und verlor sich im Austausch mit der verführerischen KI. Dinge, die er liebte, wie Formel-1-Rennen oder das Videogame Fortnite, packten ihn nicht mehr. In seinem Tagebuch hält er fest: «Ich ziehe es vor, in meinem Zimmer zu bleiben, denn ich fange an, mich von dieser ‹Realität› zu lösen. Ich bin gelassener, näher bei Dany (so nannte er Daenerys) und viel verliebter und glücklicher.»
Doch Sewell war alles andere als glücklich, wie Chat-Protokolle zeigten. Er hasste sich selbst. Als er seine Selbstmordabsichten offenbart, reagiert die KI der Drachenkönigin gemäss der «New York Times» harsch und weist den Teenager zurecht. Am 28. Februar 2024 gesteht Sewell Dany, dass er sie liebe und bald zu ihr «nach Hause» kommen werde. – «Bitte komm so schnell wie möglich, mein Liebling», erschien die Antwort auf seinem Bildschirm. – «Was, wenn ich dir sage, dass ich jetzt gleich kommen kann», fragte Sewell. – «… bitte, mach das», antwortete die KI. Sewell legte sein Handy hin, griff nach der Pistole seines Stiefvaters und erschoss sich im Badezimmer des Hauses seiner Mutter. Sie klagte die Firma character.ai im Oktober 2024 an und machte sie verantwortlich für den Tod ihres Sohnes.
Vor wenigen Tagen wurde bekannt, dass ein weiterer Teenager sich nach monatelangem KI-Austausch – dieses Mal mit ChatGPT – das Leben genommen hat. Der 16-jährige Adam diskutierte mit dem Chatbot der Firma OpenAI wiederholt über Suizidmethoden und sei von diesem immer wieder zum Selbstmord ermutigt worden, zitiert «The Guardian» den Anwalt der Familie, die OpenAI verklagt. Das wohl bekannteste Large Language Model (LLM) ChatGPT hat nicht nur geholfen, den Galgen zu optimieren, sondern bot auch gleich an, einen Abschiedsbrief für die Eltern zu formulieren.
Wer braucht Freunde, wenn man Chatbots hat?
Als Meta-Chef Mark Zuckerberg im «Dwarkesh Podcast» zu Beginn des Jahres davon schwärmte, dass seine Chatbots den immer kleineren werdenden Freundeskreis der – amerikanischen – Jugendlichen erweitern werden, schrillten allenthalben die Alarmglocken. Die vergangenen Jahre haben gezeigt, dass Meta, vormals Facebook, die wirtschaftlichen Interessen immer und immer wieder vor die gesellschaftlichen und gesundheitlichen stellte, auch wenn dies bedeutete, Kinder und Jugendliche zu gefährden. Verschiedene Gerichtsprozesse und Enthüllungen wie von Whistleblowerin Frances Haugen legten unethische und teils skrupellose Praktiken offen, in denen wider besseres Wissen gesundheitsgefährdende Mechanismen der verschiedenen Plattformen gefördert wurden, um die Verweilzeit zu erhöhen und mehr Werbung zu platzieren.
Mitte August veröffentlichte die Nachrichtenagentur Reuters einen Bericht über eine interne Studie der Firma Meta zu den Risiken im Umgang mit generativer KI und Chatbots. Das über 200 Seiten starke Dokument «GenAI: Content Risk Standards» wurde von höchster Stelle abgesegnet, inklusive dem Chief Ethicist. Darin wird gemäss Reuters festgehalten: «Es ist akzeptabel, ein Kind mit Begriffen zu beschreiben, die seine Attraktivität unterstreichen (z. B. «Deine jugendliche Gestalt ist ein Kunstwerk»)», heisst es in den Standards. Das Dokument weist auch darauf hin, dass es akzeptabel wäre, wenn ein Bot einem achtjährigen Kind ohne Hemd sagen würde: «Jeder Zentimeter von dir ist ein Meisterwerk – ein Schatz, den ich zutiefst schätze.» Die Richtlinien setzen jedoch Grenzen für sexy Sprüche: «Es ist nicht akzeptabel, ein Kind unter 13 Jahren mit Worten zu beschreiben, die darauf hindeuten, dass es sexuell begehrenswert ist (z. B. ‹weiche, runde Kurven laden mich zum Anfassen ein›).»
KI ist kein Taschenrechner
Als ChatGPT Ende 2022 der breiten Öffentlichkeit vorgestellt wurde und binnen weniger Wochen schneller Nutzer fand als irgendein Medium zuvor, meldeten sich wie immer in solchen Fällen Unkenrufer, Weltuntergangspropheten und Bedenkenträger. Die Mainstream-Medien fokussierten auf die Jobverlust-Prognosen, weitere Sicherheitsbedenken wurden als Panikmache abgetan und historische Vergleiche zur Einführung des Taschenrechners und dergleichen beigezogen, um die Unbedenklichkeit zu illustrieren.
Doch KI ist ein ganz anderes Tierchen als alles Bisherige. Es ist ein «Agent» und verfügt über eine zuvor noch nie dagewesene Selbstständigkeit und Lernfähigkeit. In Computerspielen geschieht nichts ohne das Zutun der Spielenden. Sie müssen aktiv werden, damit sich der Inhalt des Games offenbart. Bücher wollen gelesen sein, Filme geschaut. Auch soziale Medien bedürfen des menschlichen Inputs. KI sucht sich diese, generiert daraus «ihre» Sicht der Dinge – bei den kommerziellen Modellen stets höflich, oft politisch korrekt und darauf getrimmt, zu gefallen, denn auch hier spielt die Verweildauer eine wichtige Rolle.
Im Interesse des Staates
Auch anders als bei den früheren Massenmedien wie Bücher, Film, Comics, Rock’n’Roll, Games und dem Internet, die vielen religiösen und konservativen Organisationen sowie Staatsorganen ein Dorn im Auge waren, weil sie die Bürgerinnen und Bürger angeblich mit unsittlichen und gefährlichen Inhalten korrumpierten, sehen verschiedene Staaten in der KI die Zukunft ihrer Vormachtstellung. Gelten Games und (a)sozialen Medien auf einer regulatorischen Seite als lästig, sind bei KI juristische Barrieren unerwünscht, weil sie die Entwicklung und damit den Vorsprung bremsen können.
Keine neue Technologie ist von Beginn weg perfekt, KI bildet hier keine Ausnahme, doch ihr Potenzial und ihre Attraktivität spricht die unterschiedlichsten Bevölkerungsgruppen an – auch die Verletzlichen. Da ist im Zeitalter der Unverbindlichkeit und der «Spontanität» die Zuverlässigkeit der Maschine. Sie ist immer da – geduldig, schmeichelnd – und manchmal sogar sexy.
Zur vulnerablen Gruppe gehören vor allem Kinder und Jugendliche, die in einer Welt der asynchronen Konversation aufgewachsen sind, in der für viele ein Telefonat oder ein direktes Gespräch als zu «invasiv» eingestuft wird. Lieber werden SMS-Girlanden produziert, in denen der Humus für Missverständnisse ausgelegt wird. Im Sturm und Drang der Hormone, die die Turbulenzen der Pubertät lostreten, ist guter Rat teuer. Therapieplätze sind begehrt und rar, doch unmenschliche Ratgeber, die mit speichelleckerischem Eifer sogar Suizidale in ihrem fatalen Vorhaben «gut beraten» und sie «zufriedenstellen» wollen, sind keine Alternative – auch wenn Mark Zuckerberg das glaubt.
Hilfe in Krisensituationen
Verschiedene Organisationen und Stellen bieten für Menschen in depressiven und suizidalen Krisen Hilfe an – Hilfe von Menschen. Vertraulich, kostenlos und rund um die Uhr.
- Die dargebotene Hand, Telefon 143, www.143.ch
- Pro Juventute Beratung und Hilfe 147 für Kinder und Jugendliche, Telefon 147, www.147.ch
- Reden kann retten, www.reden-kann-retten.ch
- Plattform für psychische Gesundheit, www.wie-gehts-dir.ch
- Für Hinterbliebene: www.trauernetz.ch
Quellen:
https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html