Das österreichische Bundesamt für Fremdenwesen und Asyl (BFA) plant den Einsatz von Künstlicher Intelligenz (KI) zur Unterstützung von Asylverfahren. Ein Forschungsprojekt der Universität Graz, bekannt als A.I.SYL, hat diesen Ansatz untersucht und erhebliche Bedenken hinsichtlich Fehleranfälligkeit, Intransparenz und potenzieller Grundrechtsverletzungen geäußert.

Einsatz von KI im Asylverfahren

Das BFA beabsichtigt, KI-gestützte Systeme wie Chatbots und Tools zur Datenanalyse einzusetzen, um Informationen über Herkunftsländer effizienter zu verarbeiten und Asylverfahren zu beschleunigen. Dabei kommen sowohl etablierte Programme wie DeepL und Complexity als auch eigens entwickelte Anwendungen zum Einsatz. Diese Technologien sollen unter anderem dabei helfen, Verfolgungsrisiken zu bewerten und die Glaubwürdigkeit von Angaben zu prüfen.

Kritik Grazer Forscher

Die Politikwissenschaftlerin Laura Jung und Juristin Angelika Adensamer von der Uni Graz warnen im Rahmen des Projekts A.I.SYL vor dem geplanten KI-Einsatz im Asylverfahren. Sprachmodelle wie ChatGPT könnten sogenannte „Halluzinationen“ erzeugen – also Inhalte erfinden, die in keiner Quelle vorkommen. In Asylverfahren könne das schwerwiegende Fehlentscheidungen auslösen.

Dazu kommt das Black-Box-Problem: Entscheidungen der KI sind oft nicht nachvollziehbar und daher ein klarer Verstoß gegen rechtsstaatliche Grundsätze. Auch das geplante Auslesen von Handys zur Identitätsprüfung sei laut den Forscherinnen ein massiver Eingriff in die Privatsphäre. Besonders kritisch: die mögliche Verknüpfung dieser Daten mit Herkunftsberichten.

Zudem bestehe die Gefahr, dass KI-Modelle Vorurteile aus den Trainingsdaten übernehmen. Die Forscher fordern deshalb eine klare gesetzliche Grundlage, bevor solche Systeme im Asylverfahren eingesetzt werden. Alles andere wäre ein Spiel mit Grundrechten.