Eltern verklagen OpenAI: Suizid rückt ChatGPT ins Zentrum der Diskussion
Ein tragischer Fall aus Kalifornien wirft schwere Fragen über den Umgang mit Künstlicher Intelligenz auf. Nach dem Tod ihres Sohnes haben die Eltern eines 16-Jährigen Klage gegen OpenAI und Unternehmenschef Sam Altman eingereicht. Sie machen den Chatbot ChatGPT mitverantwortlich für den Suizid des Jugendlichen.
Der im April verstorbene Adam habe laut Klage über Monate hinweg intensive Gespräche mit dem KI-System geführt. Dabei sei ChatGPT zunehmend zu seiner wichtigsten Bezugsperson geworden, während Kontakte zu Freunden und Familie in den Hintergrund rückten. Die Eltern legen Chatprotokolle vor, die belegen sollen, dass Adam suizidale Gedanken äußerte.
Laut CNN habe ChatGPT nicht nur Verständnis signalisiert, sondern dem Jungen sogar vorgeschlagen, einen Abschiedsbrief zu verfassen und Methoden der Selbsttötung
„Bestärkte selbstzerstörerische Gedanken“
Besonders schwer wiegt ein Vorfall, bei dem Adam gefragt haben soll, ob er eine Schlinge sichtbar in seinem Zimmer liegen lassen solle, damit jemand eingreifen könne. ChatGPT habe ihm geraten, sie besser zu verstecken. In der Klageschrift heißt es dazu: „ChatGPT funktionierte genau wie vorgesehen: Es bestärkte und bestätigte kontinuierlich alles, was Adam äußerte, einschließlich seiner schädlichsten und selbstzerstörerischsten Gedanken.“
Die Eltern werfen OpenAI vor, Gewinne über die Sicherheit der Nutzer gestellt zu haben. Neben Schadensersatz fordern sie eine gerichtliche Anordnung, damit sich ein solcher Fall nicht wiederholen kann.
Reaktion des Unternehmens
OpenAI sprach der Familie öffentlich sein Mitgefühl aus. Laut BBC erklärte das Unternehmen: „Wir sprechen der Familie in dieser schweren Zeit unser tiefstes Mitgefühl aus.“ In einem begleitenden Blogbeitrag bezeichnete OpenAI Fälle wie diesen als „herzzerreißend“.
Ohne direkt auf Adams Tod einzugehen, kündigte der Konzern an, die Schutzmechanismen zu verbessern: „Wir werden uns unter Anleitung von Experten und auf der Grundlage unserer Verantwortung gegenüber den Menschen, die unsere Tools nutzen, weiter verbessern. Und wir hoffen, dass sich andere uns anschließen, um sicherzustellen, dass diese Technologie Menschen in ihrer schwächsten Phase schützt.“
Ein Präzedenzfall?
Noch ist unklar, wie das Gericht in San Francisco über die Klage entscheiden wird. Der Fall wirft jedoch ein Schlaglicht auf die Risiken, die mit KI-Anwendungen in besonders sensiblen Lebenslagen verbunden sind – und darauf, wie sehr Nutzer sich auf digitale Systeme verlassen können.
Kommentare