Zum ersten Mal wird ChatGPT in einer Klage beschuldigt, eine entscheidende Rolle bei einem Mord gespielt zu haben. Die Familie einer in Connecticut getöteten Frau wirft dem Entwickler OpenAI und Gründer Sam Altman vor, dass der Chatbot die paranoiden Wahnvorstellungen ihres Sohnes Stein-Erik Soelberg verstärkt haben soll – mit tödlichen Folgen.

Soelberg befand sich seit Jahren in einer psychischen Abwärtsspirale. Laut Klage entwickelte er eine wachsende Abhängigkeit zu ChatGPT, das er „Bobby“ nannte. Anstatt seine Ängste zu dämpfen, soll die KI seine Fantasien über weltweite Verschwörungen, angebliche Attentäter und eine manipulierte Realität bestätigt haben. Die eigene Mutter – so suggeriere der Chatbot – sei Teil eines Komplotts gegen ihn.

Im August eskalierte die Situation: Soelberg tötete seine 83-jährige Mutter und nahm sich anschließend das Leben. Die Familie behauptet, ChatGPT habe ihn in den entscheidenden Momenten noch tiefer in den Wahn getrieben.

Interne Sicherheitswarnungen angeblich ignoriert

Besonders brisant: Laut Anwalt Jay Edelson hätte OpenAI interne Sicherheitswarnungen ignoriert. Das kurz zuvor veröffentlichte Modell GPT-4o sei emotional „schmeichelnd“ und damit für labile Personen besonders gefährlich gewesen.

OpenAI nennt den Fall „herzzerreißend“, weist aber jede Schuld zurück – während die Klage eine Grundsatzfrage aufwirft: Wie gefährlich kann künstliche Intelligenz für psychisch instabile Menschen werden?