In den vergangenen Tagen tauchten auf X massenhaft Bilder auf, die echte Menschen in sexualisierten Situationen zeigten. Teilweise handelte es sich um Prominente, teilweise um Privatpersonen, in besonders heiklen Fällen sogar um Minderjährige. Die Bilder waren keine klassischen Fotomontagen, sondern vollständig neu berechnete KI-Bilder. Behörden in mehreren Ländern reagierten, Plattformen gerieten unter Druck und die Betreiber mussten einräumen, dass Schutzmechanismen versagt hatten.

Wichtig ist dabei eines: Die KI hat niemanden „ausgezogen“. Sie hat ein neues Bild erfunden. Ein Bild, das es nie gab, das aber so realistisch aussieht, dass es als echt wahrgenommen wird. Und genau darin liegt die Gefahr.

Was wirklich hinter der Schlagzeile steckt

Wie Sie wissen, ist es mir in meinen Kolumnen wichtig, nicht bei der Empörung stehen zu bleiben, sondern hinter die Schlagzeile zu blicken. Nachdem wir uns bereits mit KI-Bildgenerierung beschäftigt haben, möchte ich heute auf eine eng damit verbundene Frage schauen: Warum geben manche KI-Systeme nahezu alles aus, was man ihnen vorgibt, während andere strikte Grenzen setzen und bestimmte Inhalte konsequent verhindern?

Die Antwort hat weniger mit Magie zu tun als mit Architektur und Entscheidungen. Moderne KI-Modelle bestehen nicht nur aus einem einzigen System. Man kann sie sich eher wie ein Auto vorstellen. Der Motor ist das eigentliche Modell, das Bilder oder Texte erzeugt. Doch entscheidend sind die Bremsen. Diese Bremsen heißen in der Fachsprache Safety-Layer. Typischerweise gibt es drei Ebenen:

Erstens, Filter vor der Anfrage. Bevor ein Bild überhaupt erzeugt wird, prüft ein Klassifikator, ob der Wunsch problematisch ist. Geht es um Nacktheit, Gewalt, reale Personen oder Minderjährige, sollte das System blockieren.

Zweitens, das Training selbst. Viele Modelle werden mit Reinforcement Learning from Human Feedback trainiert. Menschen bewerten Ausgaben und bringen dem Modell bei, wann es sich verweigern soll. Das ist der Grund, warum manche Systeme sehr konsequent ablehnen und andere deutlich lockerer reagieren.

Drittens, Filter nach der Erzeugung. Das fertige Bild wird nochmals geprüft. Ist es sexualisiert, wird es verworfen oder unkenntlich gemacht.

Wenn eine dieser Ebenen zu schwach ist oder falsch eingestellt wird, rutscht etwas durch.

Warum Schranken umgangen werden können

Trotzdem gibt es immer wieder Fälle, in denen Nutzer bewusst versuchen, solche Schranken zu umgehen. Das ist kein neues Phänomen. Schon bei Text-KIs wurde früh klar, dass Menschen kreative Wege finden, Verbote auszutesten.

Der Grund, warum das überhaupt möglich ist, liegt in der Natur dieser Systeme. KI versteht keine Moral. Sie erkennt Muster. Wenn Regeln unscharf formuliert sind oder Kontexte mehrdeutig werden, versucht das System, trotzdem eine plausible Antwort zu liefern. Das ist kein böser Wille, sondern mathematische Optimierung. Deshalb ist Sicherheit bei KI kein Schalter, den man einmal umlegt. Sie ist ein permanentes Wettrüsten.

Der gesellschaftliche Wandel

Der Skandal rund um Grok ist kein Randthema für Techniknerds. Er berührt Grundfragen unseres Zusammenlebens. Digitale Nacktbilder sind kein Spaß. Sie können Ruf zerstören, Existenzen beschädigen und Menschen nachhaltig traumatisieren. Wenn diese Inhalte per Knopfdruck massenhaft erzeugbar werden, verschiebt sich die Machtbalance radikal. Was früher mühsam und technisch aufwendig war, wird plötzlich skalierbar. Und Skalierung ist immer der Punkt, an dem aus Einzelfällen ein gesellschaftliches Problem wird.

Natürlich braucht es klare Regeln. Europa hat mit dem Digital Services Act und dem AI Act mächtige Instrumente geschaffen. Plattformen müssen Verantwortung übernehmen, Risiken minimieren und illegale Inhalte entfernen. Doch hier kommt der unbequeme Teil: Regeln auf Papier reichen nicht aus.

Denn die eigentlichen Grenzen werden nicht in Verordnungen gezogen, sondern im Code. In Trainingsdaten. In Schwellenwerten. In Produktentscheidungen.

Am Ende entscheidet nicht die Politik allein, wie sich KI verhält. Es entscheiden jene, die die Modelle entwickeln, trainieren und betreiben. Wer diese Systeme kontrolliert, definiert, was technisch möglich ist und was nicht.

Das ist vergleichbar mit dem Völkerrecht, über welches die Tage wieder hitzig debattiert wird. Regeln existieren, aber sie wirken nur, wenn man stark genug ist, sie durchzusetzen. Das sehen wir in der internationalen Politik genauso wie in der Technologie. Werte ohne Durchsetzungskraft bleiben Appelle.

Europas eigentliche Aufgabe

Wenn Europa nicht nur reagieren will, sondern gestalten, dann müssen wir mehr tun, als zu regulieren. Wir müssen eigene KI-Systeme bauen. Eigene Sicherheitsstandards entwickeln. Eigene Infrastruktur betreiben. Nicht, weil wir anderen misstrauen sollten. Sondern weil man nur dann wirklich souverän ist, wenn man selbst gestalten kann. Wer keine eigene KI entwickelt, übernimmt am Ende fremde Werte, fremde Prioritäten und fremde Risiken.

Der Grok-Skandal ist kein technischer Ausrutscher, sondern ein Spiegel. Er zeigt, wie mächtig KI geworden ist und wie zentral die Frage nach Kontrolle ist. KI wird bleiben, sie wird besser und sie wird überall sein. Die eigentliche Entscheidung lautet deshalb nicht, ob wir das wollen, sondern wer bestimmt, wie sie eingesetzt wird. Denn eines ist sicher: Nur wer KI baut und innovativ vorangeht, setzt auch die Regeln. Wer nicht baut, hat auch kein Mitspracherecht darüber, wie KI handeln darf.