
Kommt die KI im Frieden? - Ein Interview mit Branka Panic
Friedensforscherin Branka Panic im Exxpress-Gespräch über den heiklen Balanceakt zwischen KI, Sicherheit und Demokratie.
Am Rande der IUFE-Konferenz in Wien sprach Exxpress mit Branka Panic, Gründerin der Initiative AI for Peace – einer Plattform, die sich mit der friedensorientierten Nutzung von Künstlicher Intelligenz beschäftigt. Die Politikwissenschafterin macht deutlich, dass KI in demokratischen Systemen, Informationsräumen und sicherheitspolitischen Kontexten nicht nur Chancen, sondern auch erhebliche Risiken birgt. Sie fordert mehr Bewusstsein für die politischen, gesellschaftlichen und ethischen Folgen neuer Technologien.
Founder and Executive Director AI for Peace (@AI4Peace), Branka Panic (@Branka2Panic), on #AI…#DataEthics #WEDF2021 pic.twitter.com/Bw80yVhYES
— World Ethical Data Forum (@WEDF_forum) August 6, 2021
Vertrauen in Demokratie gefährdet
Schwache Demokratien sind anfälliger für den Missbrauch von KI – ein Konsens in der aktuellen Literatur zur KI- und Demokratieforschung. Im Interview betont Branka Panic jedoch, dass nicht nur fragile Demokratien gefährdet seien, sondern auch stabile Systeme wie die USA durch KI-gestützte Wahlbeeinflussung, etwa durch Deepfakes oder personalisierte Manipulation, unter Druck geraten. Die große Herausforderung sei, Vertrauen in Informationsräume wiederherzustellen, ohne in staatliche Zensur abzurutschen. „Wenn Menschen komplett das Vertrauen verlieren, wird das selbst zum Risiko für die Demokratie“, so Panic. Auf die Frage, wohin man eine Kontrollinstanz verlagern könnte, plädiert sie für unabhängige Prüfstellen, eigens geschaffene Institutionen oder Universitäten, die Inhalte auf Deepfakes und Desinformation hin analysieren können. So liegt die Macht weder in der Hand des Staates noch in jener privater Tech-Giganten.
TechGiganten mehr Daten als viele Staaten
Besonders kritisch sieht Panic die Machtkonzentration bei großen Tech-Firmen. „Einige von ihnen haben inzwischen diplomatische Vertretungen bei den Vereinten Nationen“, erzählt sie. Gleichzeitig hätten manche dieser Unternehmen heute mehr Daten als viele Staaten was unweigerlich zu erheblichen Machtverschiebungen führe. Die eigentliche Kontrolle über technologische Entwicklungen liege dadurch zunehmend außerhalb klassischer staatlicher Strukturen. Panic betont, dass es politische Mechanismen brauche, um dieser Dynamik etwas entgegenzusetzen. Gleichzeitig sieht sie in der Zivilgesellschaft eine wichtige Kraft, um Gegengewichte zu schaffen und mehr Ausgewogenheit in globale Technologiefragen zu bringen.
Frühwarnsysteme oder digitale Überwachung?
Großes Potenzial sieht Panic in KI-gestützten Frühwarnsystemen, die dabei helfen sollen, eskalierende Gewalt oder drohende Konflikte rechtzeitig zu erkennen. Plattformen wie ACLED, die Sentry-App von Hala Systems oder Anwendungen, die Hate Speech, Fluglärm oder Social-Media-Aktivitäten analysieren, könnten wertvolle Hinweise auf bevorstehende Krisen liefern. Auch Hassrede sei ein ernstzunehmender Frühindikator etwa, wenn sich die gesellschaftliche Stimmung spürbar verschärft.
Doch sie betont zugleich die Grenzen solcher Systeme. Die Tools könnten unterstützen, aber keine Garantie für tatsächliche Prävention liefern und schon gar nicht im Einzelfall. Im Gespräch kam auch der Amoklauf in Graz zur Sprache. Panic nahm die kritische Frage, ob man durch die Analyse von Online-Verhalten potenzielle Täter im Vorfeld erkennen könne auf warnt aber deutlich vor falschen Erwartungen und ethischen Dilemmata. Es sei gefährlich, einzelne Menschen mit KI-Systemen zu „labeln“, wie sie es nennt. Falsche Positiv-Erkennungen oder voreilige Rückschlüsse könnten dazu führen, dass Menschen stigmatisiert oder unbegründet verdächtigt würden.
„Wir unterstützen kein System, das Personen im Vorfeld als potenziell gefährlich einstuft“, so Panic. Die Gefahr liege darin, dass aus einem präventiven Tool ein Instrument der Kontrolle werde und damit genau jene gesellschaftliche Eskalation befeuert, die es eigentlich verhindern soll.
Berufswahl im KI-Zeitalter
Auf die Frage, was sie jungen Menschen rät, die heute vor der Studien- oder Berufswahl stehen, betont Branka Panic, wie wichtig Vielfalt und persönliche Interessen seien. „Wir dachten lange, alle müssen Coden lernen dabei schreiben jetzt die Tools den Code selbst.“ Entscheidend sei nicht das eine „richtige“ Fach, sondern die Fähigkeit, Technik mit Ethik, Gesellschaft und realen Problemen zu verbinden. Ob Philosophie oder Data Science: Wichtig sei, dass verschiedene Perspektiven zusammenkommen. Nur so könne KI verantwortungsvoll entwickelt und eingesetzt werden.
Transhumanismus? Ich hoffe nicht.
Auf die Abschlussfrage, ob wir in eine transhumanistische Zukunft steuern, mit implantierten Chips und einer Verschmelzung von Mensch und Maschine, antwortet Panic klar: „Ich hoffe nicht.“ Sie glaubt an die menschliche Kreativität, an Emotion und Verantwortung und daran, dass Technologie uns unterstützen, aber nicht ersetzen sollte. Ob KI in Frieden kommt? „Das hängt davon ab, wer sie entwickelt und wofür.“
Kommentare