
Google-KI in der Kritik: Hunderte Beschwerden wegen missbräuchlicher Inhalte
Googles Künstliche Intelligenz „Gemini“ steht unter Beobachtung. Innerhalb eines Jahres gingen weltweit Hunderte Beschwerden wegen möglicher Missbrauchsfälle ein. Besonders brisant: Über 250 Fälle betrafen extrem gewalttätige oder terroristische Inhalte, wie die australische eSafety Commission am Mittwoch mitteilte.
Neben terroristischen Inhalten bezogen sich knapp 90 weitere Beschwerden auf kinderpornografische Darstellungen. Dies unterstreicht, wie wichtig es für KI-Entwickler ist, Sicherheitsvorkehrungen einzubauen und deren Wirksamkeit regelmäßig zu überprüfen, um zu verhindern, dass solche Inhalte generiert werden“, erklärte eSafety-Chefin Julie Inman gegenüber dem Handelsblatt.
Die australische Behörde berief sich dabei auf eine verpflichtende Meldung von Google, die Unternehmen nach dem dortigen Recht abgeben müssen. Der Bericht deckt den Zeitraum von April 2023 bis Februar 2024 ab. Unklar bleibt jedoch, wie vielen der Beschwerden Google tatsächlich nachgegangen ist.
Unterschiedliche Moderationsstrategien bei problematischen Inhalten
Um kinderpornografische Inhalte zu identifizieren und zu entfernen, setzt Google auf sogenanntes Hash-Matching. Diese Technologie vergleicht hochgeladene Bilder mit bereits bekannten Darstellungen von Kindesmissbrauch und löscht übereinstimmende Inhalte automatisch.
Bei terroristischen oder gewalttätigen Inhalten verzichtet das Unternehmen jedoch auf diese Methode. Warum Google hier anders vorgeht, bleibt offen – ebenso wie die Frage, welche Konsequenzen der Konzern aus den gemeldeten Verstößen ziehen wird.
Hier können Sie den exxpress unterstützen
Ihr Beitrag hilft, unsere Berichterstattung noch weiter auszubauen und diese weiterhin kostenlos und top-aktuell zu Verfügung zu stellen.
Kommentare