Drohnen, die künstliche Intelligenz (KI) nutzen, werden im Ukraine-Krieg zunehmend eingesetzt. Sollten wir künftig mit Terminatoren rechnen, die in den Krieg ziehen und an unserer Stelle Entscheidungen treffen?

Alles ist möglich, aber ich glaube nicht, dass KI in den kommenden Jahren eine große Rolle bei der Ersetzung menschlicher Entscheidungen spielen wird. Maschinen können darauf trainiert werden, bestimmte Entscheidungen anstelle von Menschen zu treffen. Allerdings ist gerade der militärische Bereich einer der schwierigsten, es sei denn, wir sprechen von so einfachen Dingen wie Navigation. Wir navigieren mit Google Maps und fragen keinen Menschen mehr, in welcher Richtung wir etwas finden. Man kann auch moderne Technologie und KI dafür einsetzen, z. B. für die Navigation von unbemannten Luftfahrzeugen, Raketen usw.

Drohnen verwenden bereits KI beim Verfolgen von Angriffszielen.Getty

Wesentlich komplizierter ist die Situation bei Entscheidungsfindung. Auf einem echten Schlachtfeld muss man die Ziele identifizieren, die sich normalerweise bewegen. Für gewöhnlich stützt man sich dabei auf verschiedene Informationen und vergleicht viele Daten, zum Beispiel aus Luftaufnahmen und Lauschangriffen. Erst dann kommt man zum Schluss, welches Ziel wichtig ist und angegriffen werden sollte.

KI-Algorithmen können diesen Entscheidungsprozess verkürzen. Das ist ein wichtiger Faktor auf dem Schlachtfeld. Aber sie treffen nicht die Entscheidung, welches Ziel angegriffen werden soll, denn das ist eine sehr komplexe Aufgabe. Es wird noch viele Jahre dauern, bis KI-Algorithmen diese Aufgabe übernehmen können. Jede Situation hat ihre eigenen, einzigartigen Probleme und unterschiedliche Prioritäten. Was gestern wichtig war, ist es heute nicht mehr. Das ist mit Maschinen nicht so einfach zu bewerkstelligen.

Terminatoren, die dem Menschen Entscheidungen abnehmen, sind zurzeit Zukunftsmusik.

„Wir vertrauen Menschen, weil wir keine Alternative haben“

Wird man im Alltag künftig öfter Intelligente Maschinen einsetzen und ihnen vertrauen?

Wenn Sie mich fragen: Menschen sollten Maschinen mehr vertrauen als Menschen. Auch Menschen sind intelligente Maschinen. Der größte Schaden in der Geschichte wurde von Menschen angerichtet. Wir vertrauen anderen Menschen, weil wir keine Alternative haben. Schließlich handeln wir als Gesellschaft. Fast in jedem Moment vertrauen wir jemandem oder etwas, das nicht so vertrauenswürdig ist. Am Ende des Tages wird es mit Maschinen genauso sein.

Intelligenten Maschinen werden wir eher vertrauen können, als uns Menschen, prognostiziert Prof. Ben-Israel.Getty

ChatGPT wird Schülern und Studenten helfen – aber nur bedingt

Werden KI-Programme wie Chat-GPT in Zukunft Hausaufgaben und Artikel schreiben?

Nun, ich bin seit Jahren Universitätsprofessor. Ich weiß, dass meine Studenten Google benutzen, um nach Informationen zu einem  Thema zu suchen, über das sie schreiben. ChatGPT hilft ihnen dabei, dies in schönerer Sprache zu tun. So ist das Leben. Natürlich wollen wir, dass ein Student in einer Arbeit zeigt, dass er gut aufgepasst hat und alle Fakten kennt. Aber das ist nicht mehr immer notwendig. Auch ich google zuerst im Internet, wenn mich jemand nach einer fundierten Antwort fragt.

Deshalb muss man den Schülern Fragen stellen, die auf das Verständnis abzielen. ChatGPT weiß, wie man Dinge ausdrückt, aber es versteht sie nicht wirklich, auch nicht besser als ein normaler Mensch. ChatGPT wird bei bestimmten Fragen versagen. Eine der Konsequenzen könnte sein, andere Aufgaben an Universitäten und Schulen zu stellen.

ChatGPT kann gut formulieren – aber nicht verstehenGETTYIMAGES/Photo Illustration by Rafael Henrique/SOPA Images/LightRocket via Getty Images

Was man übrigens nicht vergessen sollte: Sie können das ChatGPT-Programm nur nutzen, weil das US-Unternehmen OpenAI es Ihnen erlaubt. Dabei kommuniziert Ihr Computer (oder Smartphone) mit einem anderen, einer riesigen Maschine, die eine enorme Menge an Energie verbraucht. Wenn das Unternehmen die Anwendung schließt, haben Sie kein ChatGPT mehr. Wir neigen dazu, das zu vergessen, weil wir denken, dass sich ChatGPT hier in unserem Telefon befindet, während es in Wahrheit nur eine Kommunikationsverbindung zu etwas ist, das OpenAI gehört.

Den künftigen Schaden von KI können wir nur minimieren, nicht verhindern

Die EU plant bereits Vorschriften, um möglichen Gefahren von KI vorzubeugen. Ist das der richtige Ansatz?

Wir leben seit mindestens 250.000 Jahren mit KI – diesem Homo Sapiens. Wir tun viel, um die Probleme, die diese intelligenten Maschinen mit sich bringen, zu verringern, zum Beispiel in der Erziehung: Wir bringen Kindern bei, sich zu benehmen, die Zehn Gebote zu befolgen – was sie nicht immer tun. Außerdem haben wir ein Strafverfolgungssystem. Dennoch gibt es keinen einzigen Menschen auf der Welt, bei dem wir sicherstellen können, dass er in Zukunft keine Gefahr mehr darstellt. Wir können die Gefahr nicht beseitigen, sondern nur auf ein bestimmtes Maß reduzieren. So sollten wir auch bei KI vorgehen.

Absolute Sicherheit kann es nicht geben, denn mit KI meinen wir Maschinen, die aus ihren eigenen Erfahrungen lernen und ihr Verhalten ändern können. Das kann nicht mehr vom Programmierer und vom Hersteller der Maschine kontrolliert werden. Daher können wir nicht wirklich wissen, was passieren wird.

Stellen Sie sich vor, Sie bräuchten eine staatliche Lizenz, um Kinder zu bekommen und zu erziehen – es sei denn, Sie beweisen vorher, dass das Kind, das noch nicht lebt, künftig keinen Schaden anrichten wird. Niemand würde mehr Kinder zur Welt bringen. Wir bringen Kinder zur Welt, nehmen aber die Risiken ernst, und sorgen etwa über Bildung dafür, dass sie kein schlechter Mensch werden.

Der Hersteller kann nicht garantieren, dass künftige intelligente Maschinen keinen Schaden anrichten.Getty

Das Gleiche gilt für KI. Wir brauchen Regulierung. Allerdings sollten wir die Dinge nicht in dem Maße einschränken, dass man vorher beweisen muss, dass sie keinen Schaden anrichten. Dann würde nichts mehr hergestellt werden. Wir sollten bestimmte Vorschriften erlassen, die das Ausmaß des Schadens, der durch KI entstehen kann, verringern, im Wissen darum, dass er nie auf null sinken wird. Auch Kriminalität können wir nur reduzieren, aber nicht abschaffen

„Nicht vollständig bestimmte Situationen sind das Merkmal der Natur“

Worin unterscheiden sich heutige Intelligente Maschinen von uns Menschen?

Wir bestehen im Gegensatz zu Computern aus viel komplexeren biologischen Molekülen, weshalb wir auch viel komplexere Maschinen sind. Ein weiterer Unterschied ist aber ein prinzipieller: Vermutlich sind wir Menschen Quantenmaschinen, keine binären Maschinen. Wir beschäftigen uns mit Situationen, die weder Null noch Eins sind. Wir leben erfolgreich mit nicht vollständig bestimmten Situationen. Das ist ein Merkmal der Natur, denn die Natur verhält sich gemäß der Quantenmechanik und nicht gemäß der binären Mathematik oder Logik. Doch heutige Maschinen haben es nur mit Nullen und Einsen zu tun.

Der weltweite Wettlauf bei der Herstellung von Quantencomputern läuft bereits.APA/AFP/MANDEL NGAN

Man arbeitet bereits an Quantenmaschinen und eines Tages werden wir künstliche Quantenintelligenz – Algorithmen von Quantencomputern – haben. Dann wird es im Prinzip keinen Unterschied zu uns geben, weil wir auch Maschinen sind und wissen, wie man neue – Kinder – herstellt und das kann ebenfalls höchst unvorhersehbar sein.

Weil man auch Menschen nicht immer vertrauen kann, gibt es die Demokratie

Politiker würden künftig dem Rat von KI vertrauen, selbst wenn sie zuvor zu anderen Schlussfolgerungen gelangt sind?

Wir wissen auch bei Menschen nicht, ob wir ihnen vertrauen sollen. Das ist auch ein Grundgedanke der Demokratie. Deshalb stimmen wir ab und beobachten, wie sich Regierungspolitiker verhalten. Wenn sie anderes tun, als wir es erwartet haben, können wir nach vier, fünf Jahren andere wählen. All das liegt daran, dass wir von vornherein nicht wissen können, was passieren wird.

US-Präsident Biden besichtigt einen Quantencomputer in einem IBM-Werk in New York. IBM verkündete eine 20-Milliarden-Dollar-Investition in Quantencomputer, Halbleiterfertigung und andere High-Tech-Bereiche.APA/AFP/MANDEL NGAN

Bei Quantencomputern sprechen wir von riesigen Maschinen, die enorme Mengen an Energie verbrauchen. Mit zahlreichen Fragen wie dem Energieverbrauch haben wir noch nicht einmal begonnen, uns zu befassen. Es wird also noch lange dauern, bis es soweit ist.

„Ich denke, dass wir im Prinzip Maschinen sind“

Israel will nun mehr in KI investieren und eine Supermacht werden. Wird es sich auf Quantencomputer konzentrieren?

Das wird ein wesentlicher Teil davon sein. Wirkliche Intelligenz entsteht nur in Auseinandersetzung mit Situationen, die in gewisser Weise zweideutig sind. Die reale Welt ist wie gesagt nicht binär ist. Situationen können nicht nur mit Nullen und Einsen dargestellt werden. Manchmal muss man sich entscheiden und gemäß der höchsten Wahrscheinlichkeit auswählen. Wenn Sie also wirklich führend in der KI-Technologie sein wollen, ist Quantencomputing ein wesentlicher Bestandteil davon.

Sie haben auch Philosophie studiert. Was macht den Menschen aus und warum kann eine intelligente Maschine alles tun, was der Mensch tut?

„Was ist der Mensch?“ war die Hauptfrage von Immanuel Kant. Seine Antwort war kompliziert. Er gab sie in seinen drei Kritiken. Dazu gehören die reine Vernunft – das, was wir heute Intelligenz nennen –, die praktische Vernunft, bei der es um moralische Werte geht, und das Urteilsvermögen, das wir heute vielleicht als Augenmaß bezeichnen würden. All dies kann von Maschinen nachgeahmt werden. Deshalb denke ich, dass wir im Prinzip Maschinen sind.

Gemäß dem deutschen Philosophen Immanuel Kant (1724-1804) könnte man den Menschen auch als intelligente Maschine auffassen.Getty

Sie schließen also nicht aus, dass intelligente Maschinen in Zukunft eine Ethik brauchen, weil sie handeln?

Ich schließe es nicht nur nicht aus, sondern denke, dass es notwendig sein wird, wenn man wirklich will, dass sich diese Maschinen entsprechend verhalten. Die Ethik sollte ihnen einprogrammiert werden. Übrigens hat das der Science-Fiction-Autor Isaac Asimov schon vor 90 Jahren in seinen Büchern über Roboter behandelt. In ihnen gab es drei Regeln für Roboter. Die erste davon war, niemals Menschen zu schaden, weder durch Handeln noch durch Unterlassen.

Die Utopien des Science-Fiction-Autors Isaac Asimov (1920-1992) werden eines Tages womöglich Realität werden.Rita Barros/Getty Images

„Nur in einer Welt mit unbestimmten Situationen gibt es einen freien Willen“

Denken Sie, es gibt einen freien Willen und künftig werden auch Intelligente Maschinen einen freien Willen haben, sodass sie für ihre Handlungen zur Verantwortung gezogen werden?

Das ist eine sehr große Frage der Philosophie. Meiner Meinung nach haben wir einen freien Willen, weil wir nicht nur zwischen Optionen wählen können, sondern weil es eine „Quanten-Welt“ ist: weder wirklich Null noch Eins. In einer Schwarz-Weiß-Welt ist alles vorherbestimmt. Da gibt es keinen freien Willen, aber so ist die Welt nicht. Die Welt besteht wirklich aus Quanten. Wir leben in dieser Welt mit unbestimmten Situationen, in denen man frei wählen kann.

Quantencomputer werden ebenfalls einen freien Willen haben, so wie wir, daher könnte man auch für sie Bestrafung für ethisch falsche Entscheidungen fordern.

Isaac Ben-Israel (74) ist ein israelischer Militärwissenschaftler, Physiker, Philosoph und Sicherheitsberater. Jahrelang war er Leiter der israelischen Raumfahrtbehörde, über dies ist er Vorsitzender des Nationalen Rates für Forschung und Entwicklung. Beide unterstehen dem israelischen Ministerium für Wissenschaft, Technologie und Raumfahrt.

Er diente als Leiter der Militärverwaltung für die Entwicklung von Waffen und der technologischen Industrie. Zwischen 2010 und 2012 war er Chefberater für Kybernetik von Premierminister Netanjahu. In dieser Zeit gründete er das Nationale Cyber-Büro im Büro des Premierministers und rief die Nationale Cyber-Initiative ins Leben. Ben-Israel ist heute Leiter des Programms für Sicherheitsstudien an der Universität Tel Aviv, wo er auch die jährliche internationale Konferenz für Cybersicherheit leitet. Zwischen 2007 und 2009 war er Mitglied der Knesset für Kadima.

Ben-Israel ist einer der führenden israelischen Experten für Weltraum-, Cyber- und technologiebezogene Sicherheit. Er hat einen Doktortitel in Philosophie und einen Bachelor in Physik und Mathematik von der Universität Tel Aviv.