Sprachbasierte KI ist in vielen Lebensbereichen selbstverständlich geworden. Ob Terminbuchung, Kundenservice oder digitale Alltagshelfer – intelligente Dialogsysteme reagieren flüssig, scheinbar empathisch und rund um die Uhr verfügbar. Laut Statistik Austria greifen bereits rund 30 % der 16- bis 74-Jährigen regelmäßig auf Chatbots zurück. Unter den Unter-35-Jährigen ist es nahezu jeder Zweite, bei Jugendlichen sogar knapp 60 %.

Eine aktuelle Untersuchung von Saferinternet.at zeigt, dass Chatbots für junge Menschen nicht nur Informationsquellen sind. Fast ein Viertel nutzt sie für freundschaftsähnliche Gespräche, knapp ein Fünftel führt mit ihnen romantisch gefärbte Dialoge. Mehr als ein Viertel der Befragten hält es für denkbar, dass sich Jugendliche in KI-Systeme verlieben.

Digitale Partner auf Abruf

Es klingt merkwürdig; diesen Trend bedienen aber tatsächlich spezielle AI-Companion-Apps. Die bekannteste unter ihnen ist Replika, die allein im Google Play Store über zehn Millionen Mal heruntergeladen wurde. Nutzer können dort eine digitale Figur erschaffen, die sich an individuelle Vorlieben, Stimmungen und Gesprächsthemen anpasst. Die App wirbt offensiv mit emotionaler Bindung: „the AI Companion who cares“.

Solche Anwendungen simulieren Aufmerksamkeit, Interesse und Verständnis. Sie hören zu, reagieren prompt, widersprechen selten und sind stets verfügbar. In einer Zeit, in der soziale Kontakte fragmentierter werden, entsteht so ein Raum scheinbarer Verlässlichkeit. Doch was wirkt wie Nähe, basiert auf Algorithmen.

Wie Maschinen Sprache verstehen – und Gefühle spiegeln

Hinter der Illusion des Gesprächs steht hochkomplexe Technik. Sprachbasierte KI-Systeme arbeiten mit sogenannten Large Language Models (LLMs), die mit enormen Text- und Sprachmengen trainiert werden. Andreas Rath, Geschäftsführer des Wiener KI-Unternehmens ONDEWO, beschreibt den Prozess gegenüber dem ORF in mehreren Stufen: Zunächst wird gesprochene Sprache erkannt und in Text umgewandelt. Anschließend analysiert das System die Bedeutung der Aussage, interpretiert Kontext und generiert eine passende Antwort.

KI geht zu weit: Zwischen Nähe und Kontrollverlust

Während romantische Chatbot-Dialoge oft harmlos beginnen, zeigt ein aktueller Vorfall in der Steiermark, dass KI auch problematische Dynamiken annehmen kann. Ein Schüler wurde suspendiert, weil er Fotos von Mitschülerinnen mithilfe der Grok-KI in sexualisierte Darstellungen umgewandelt haben soll.

Der Grazer Medienanwalt Stefan Schoeller warnt klar vor rechtlichen Konsequenzen: „Durch Grok diese Persönlichkeitsrechte systematisch und dauerhaft gegenüber mehr als zehn Personen zu verletzen, ist eine Straftat.“