
Weiterer Top-Experte warnt: „Entwicklung von Künstlicher Intelligenz unverzüglich aussetzen“
Einerseits investieren riesige Tech-Konzerne viele Milliarden Euro in die Entwicklung der Künstlichen Intelligenz. Andererseits warnen immer mehr Experten davor, dass die KI aktuell außer Kontrolle zu geraten droht. Der US-Autor Eliezer Yudkowsky fürchtet, dass der offene Brief von Elon Musk und Co. nicht reichen wird. Er plädiert für eine sofortige Aussetzung der Entwicklung.

Es häufen sich die dringenden Appelle von Experten, die Entwicklung mit der Künstlichen Intelligenz auszusetzen oder vorerst gar einzustellen. Es scheint so, als wäre die Entwicklung kurz vor dem, wovor bereits Stephen Hawking gewarnt hat. Der berühmte Physiker sagte einst: „Wenn sich die KI selbst programmieren kann, wird sie die Menschheit überrollen und das bedeutet das Ende der menschlichen Rasse.“
Verzweifelte Warnung: Brief unterschätzt den Ernst der Lage
Davor fürchten sich nicht nur Laien. Twitter- und Tesla-Boss Elon Musk, Steve Wozniak, Computer-Ingenieur, der maßgeblich an der Entwicklung des PC beteiligt war, und andere Experten forderten in einem offenen Brief, das Vorantreiben der Künstlichen Intelligenz vorerst auszusetzen (der eXXpress berichtete). Das sei zwar besser als gar nichts, aber auf keinen Fall genug. „Ich habe nicht unterschrieben, weil ich denke, dass der Brief den Ernst der Lage unterschätzt und zu wenig fordert, um das Problem zu lösen“, schreibt dazu im „Time“-Magazine der US-Autor Eliezer Yudkowsky, der seit mehr als 20 Jahren an Künstlicher Intelligenz forscht.
"Stellen Sie sich eine ganze außerirdische Zivilisation vor"
Es ist ein düsteres Bild, das der US-Autor, der sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz beschäftigt, da zeichnet. Es kommt der Warnung von Hawking gleich. Yudkowsky erklärt ein mögliches Zukunftsszenario mit einer außer Kontrolle geratenen KI so: „Um sich eine feindliche, übermenschliche KI vorzustellen, sollten Sie sich nicht einen leblosen, bücherschlauen Denker vorstellen, der im Internet haust und böswillige E-Mails verschickt. Stellen Sie sich eine ganze außerirdische Zivilisation vor, die mit millionenfacher menschlicher Geschwindigkeit denkt und zunächst auf Computer beschränkt ist – in einer Welt von Lebewesen, die aus ihrer Sicht sehr dumm und sehr langsam sind.“

Die Gefährlichkeit besteht darin, dass niemand weiß wohin die Reise geht
Damit meint der Autor die Menschen, und denen könnten die Maschinen sehr ähnlich werden – „durch DNA-Stränge, die man per E-Mail an Labors schicken kann, die auf Anfrage Proteine produzieren, so dass eine KI, die zunächst auf das Internet beschränkt ist, künstliche Lebensformen aufbauen oder direkt zur postbiologischen Molekularproduktion übergehen kann.“ Nichts, das man sich tatsächlich vorstellen möchte, aber sollte, wenn es nach den renommierten Experten geht.
Ob die Tech-Konzerne, die viele Milliarden in die Ausbildung der Künstlichen Intelligenz stecken, darauf hören werden, bleibt abzuwarten. Nach Auffassung jener Insider, die jetzt so eindringlich warnen, ist das Hauptproblem, dass aktuell niemand abschätzen kann, wohin die Reise geht. Auch nicht die, die an den KI-Entwicklungen arbeiten.
Kommentare
Das gezeigte Kampf-Bild zu dieser Meldung hat aber gar nichts mit “Intelligenz” zu tun. Wenn Infanteristen ,mit Handwaffen schießend , VOR den eigenen Panzern einherlaufen, ist das wohl Selbstmord/ Heldentod mit Anlauf.
KI ist nicht mehr aufzuhalten das Militär braucht Maschinen zur Kriegsführung….als Terminator verfilmt wurde….war es bereits in Hinterzimmern in Arbeit….Atomare Raketen sind bereits Automatisiert zum Gegenschlag…..Nichts wird übrig bleiben
Es werden diese Warnungen genauso ignoriert werden wie schon davor auch alle anderen. Diese Menschen die jetzt warnen, werden in kürzester Zeit sicher genauso fertig gemacht wie viele andere auch.
So ein blödsinn… Ewiggestrig
KI ist das nächste große Jahrhundertrennen! Europa soll auf die Hinterbeine stehen und den Rückstand in IT Wett machen! Nur so kann Europa sich von Weltmächten unabhängig machen!
Das bestreitet keiner. Nur könnte es auch das letzte große Rennen sein, vor allem wenn parallel die Robotik weiter Fortschritte macht.
Ein bisserl KI im österr. Parlament wäre nicht schlecht, bevor das Land vor die Hunde geht…
Das gilt auch für Deutschland, die EU und und und
Es ist die Zieldefinition, die eine Intelligenz gefährlich macht oder nicht.
Das Ziel eines biologischen Organismus ist Existenz an sich und Fortpflanzung, um eine bessere Version zu erhalten. Versuch und Irrtum, wenn man es in ein gedankliches Konstrukt pressen will. Doch die Wahrheit der Natur ist kein Plan oder Konstrukt sondern einzig und allein der Parameter des Erhalt.
Nun kommen gesellschaftliche Klassifizierungen hinzu – sagen wir Neid und Gier – sind die Antriebsfedern der meisten modernen Zivilisationen. Eine etwas “menschlichere” Umsetzung von das Recht des Stärkeren oder Überlebensantrieb und Dominanz – somit die veränderte Folge des ursprünglich biologischen Antriebs.
Damit haben wir eindeutig definiert, das Ziel “Überleben über alles” ist ein biologisches und das ganz ohne moralische Deckmäntelchen.
Jetzt die KI: Eine KI hat kein Selbstbewustsein und so lange das so so ist, besteht kein Grund das eigene Selbst zu erhalten. Ein Ziel, beispielsweise töte den Gegner – und der Mensch vergibt genau solche Ziele – wird zwar in Sekundenschnelle diverse Entscheidungsfindungsprozesse etablieren das Ziel zu erreichen, aber das war es dann schon. Eine KI wird dann nicht weiter machen – es gibt keinen Antrieb. Biologische Organismen haben immer das Ziel des Überlebens, weil Selbstbewußt – KI haben das derzeit nicht.
Auch Hormonelle Abläufe wie Belohnungen udgl. werden KIs nicht erlernen, weil wie will man eine KI oder anders gesagt, rein mathematische Abläufe belohnen? Auch erlangen von mehr Wissen, wäre ja schon eine Zieldefinition. Eine KI wird nicht mehr wissen wollen, warum auch? Wettbewerb ist eine Zieldefintion von Schaffung einer Reihung – herausfinden des Besseren und damit auch eine Abwandlung des evolutionären Ziels der Biologie.
KIs werden keine eigenen Entscheidungen treffen, ohne eine Zieldefinition, weil es keinen Grund gibt etwas zu berechnen, wenn man keine Aufgabe hat.
Daher sind KIs nur so gefährlich wie deren Zieldefinition – genau jene Aufgabe, die gelöst werden soll. Eine “romantische” Vorstellung von einer KI mit einem Implantierten “Ich”-Antrieb würde unterstellen, dass mathematische Formeln Lösungen ergeben, die von einer Berechnung zur anderen ein anderes Ergebnis hervorbringen kann. Also 1 + 1 = 2 und beim nächsten Mal 1 + 1 = 3. Wenn es keine Varianz gibt, kann sich eine KI nicht anders entscheiden und damit auch keinen “Ich will etwas” – Willen berechnen.
Aus meiner Sicht gefährlich wird es. wenn man biologische Komponenten einbringt und damit ein “Antriebsverhalten” bzw. “Varianzmöglichkeit” installiert und das dann mit solchen KIs verbindet. Dann kann es ein “Ich” geben und damit einen Antrieb – Überleben.
Mit GPT3 erstellt?
Es ist sicher ratsam, innezuhalten und sich darüber Gedanken zu machen, welche Risiken in der Verwendung heutiger KI stecken. Bzw. in welchen Wirtschaftsbereichen sie mit grösster Vorsicht einzusetzen ist. Letztlich erzeugen vom Menschen geschaffene Algorithmen neue Algorithmen, die der Hersteller nicht mehr versteht und damit auch nicht mehr kontrollieren kann bzw. auch die Folgen dieser nicht mehr vorhersehen kann.
Daher ist diese Diskussion gut.
Dass die heutige KI Technologie den Menschen beseitigt, halte ich für eine übertriebene Hysterie.
Dazu müsste die KI erst ein Bewusstsein über ihre Existenz entwickeln, erst dann ist sie zu den Bosheiten der Menschen in der Lage.
Leider ist aber zu befürchten, dass die größten Investitionen diesbezüglich im militärischen Bereich stattfinden. Und das ist gewiss ein Grund zur Sorge. Darauf sollte sich die Diskussion fokussieren.
Die Eliten der Welt haben auch Angst vor der KI. So könnte doch der Lug und Trug der Weltreligionen und der Machthaber mit dem sie die Menschheit ausbeuten enttarnt werden unser ganzes indoktriniertes Bewußtsein von Gut und Böse, von Richtig und Falsch könnte ins Wanken geraten. Die Geschichte könnte umgeschrieben werden Helden zu Verbrechern und Verbrecher zu Heiligen mutieren.
Skynet ist schon lange da…ihr müsst nur die Augen Aufmachen…die Eliten haben doch bereits einen Plan…1 Million Menschen reichen auf dieser Welt aus….und nun ratet mal was mit Rest geschieht ! es sind bereits Satelliten in der Umlaufbahn die euch Kontrollieren Tag ein Tag aus….Fernseher kommt da nur der Ton rein in eurer Haus oder geht da auch Ton raus…! Handysw eine leichte Übung…Ton rein und raus….! Internet totale Spionage,,,,,,selbst Küchengeräte ……euer Auto mit GPS….es ist nichts mehr so wie es war….redet doch mal zu Hause über Terroranschläge…oder Waffen und Bomben in euren Haus oder Garten….dann seht mal wann Ihr Besuch bekommt…..testet es über Handy….und Ihr werdet sehen wie schnell man euch angezapft hat…..redet und schreibt euch…..das wird lustig
Um K.I. zu besiegen muss man einfach nur den Strom ausschalten. Da fürcht ich mich vor Menschen mehr.
Schon Terminator gesehen, ist nicht so einfach :))
Seit 2015 oder so, als die erste selbstständig lernende KI von Schach bis Go alles gewann, war mein sehr sarkastischer Spruch bereits, so jetzt lasst “deep learning” (ich glaub so war der Name damals) auf die Google Datenbank los, mit dem einfachen Befehl “lerne selbstständig”. Das was die KI als erstes lernen wird “der Mensch ist das unnötigste Lebewesen auf diesem Planeten” und so kommt dann Stephen Hawking´s anderer Spruch ins Spiel “Google ist unser Skynet” (aus dem Terminator). Einer der aufklärensten Äußerungen hat mal ein Priester (IT Profi) in einer Doku auf die Frage “ob diese KI als gut oder böse anzusehen wäre” geantwortet: “keines von beiden, denn dieses Gut und Böse denken ist rein menschlich, die KI sieht das rein mathematisch somit völlig pragmatisch.” womit wir wieder bei “der Mensch ist das, weil alle Ressourcen verbrauchend, unnötigste Lebewesen auf diesem Planeten”. Was da auf uns zurollt unterschätzen viel zu viele, denn wenn der Zug mal fährt, ist er nicht mehr aufzuhalten. Denkt nur wie abhängig wir von der Elektronik bereits sind.
Und warum „spielt“ man dann damit? Wissen selbst nicht wohin die Reise geht……? OH
das haben wir doch bereits…Atomare Raketen sind bereits so gesteuert…auch wenn man ein Land komplett vernichtet mit Atomwaffen wird sich der Gegenschlag von ganz alleine in Gang setzen…..was wollt ihr denn
Die Chinesen und andere Staaten werden sich von solchen Forderungen nicht beeindrucken lassen und einfach weitermachen. Ein Aussetzen bei uns bewirkt deshalb nur, dass man denen einen Vorsprung gibt. Besser wäre es daher, die Verwendung von KI in bestimmten Anwendungsbereichen zu reglementieren oder ganz zu verbieten. Das müsste man mittels internationalen Übereinkommen regeln – ähnlich wie bei Atomwaffen.