Weiterer Top-Experte warnt: „Entwicklung von Künstlicher Intelligenz unverzüglich aussetzen“
Einerseits investieren riesige Tech-Konzerne viele Milliarden Euro in die Entwicklung der Künstlichen Intelligenz. Andererseits warnen immer mehr Experten davor, dass die KI aktuell außer Kontrolle zu geraten droht. Der US-Autor Eliezer Yudkowsky fürchtet, dass der offene Brief von Elon Musk und Co. nicht reichen wird. Er plädiert für eine sofortige Aussetzung der Entwicklung.
Es häufen sich die dringenden Appelle von Experten, die Entwicklung mit der Künstlichen Intelligenz auszusetzen oder vorerst gar einzustellen. Es scheint so, als wäre die Entwicklung kurz vor dem, wovor bereits Stephen Hawking gewarnt hat. Der berühmte Physiker sagte einst: „Wenn sich die KI selbst programmieren kann, wird sie die Menschheit überrollen und das bedeutet das Ende der menschlichen Rasse.“
Verzweifelte Warnung: Brief unterschätzt den Ernst der Lage
Davor fürchten sich nicht nur Laien. Twitter- und Tesla-Boss Elon Musk, Steve Wozniak, Computer-Ingenieur, der maßgeblich an der Entwicklung des PC beteiligt war, und andere Experten forderten in einem offenen Brief, das Vorantreiben der Künstlichen Intelligenz vorerst auszusetzen (der eXXpress berichtete). Das sei zwar besser als gar nichts, aber auf keinen Fall genug. „Ich habe nicht unterschrieben, weil ich denke, dass der Brief den Ernst der Lage unterschätzt und zu wenig fordert, um das Problem zu lösen“, schreibt dazu im „Time“-Magazine der US-Autor Eliezer Yudkowsky, der seit mehr als 20 Jahren an Künstlicher Intelligenz forscht.
"Stellen Sie sich eine ganze außerirdische Zivilisation vor"
Es ist ein düsteres Bild, das der US-Autor, der sich mit Entscheidungstheorie und den Folgen der Entwicklung von Künstlicher Intelligenz beschäftigt, da zeichnet. Es kommt der Warnung von Hawking gleich. Yudkowsky erklärt ein mögliches Zukunftsszenario mit einer außer Kontrolle geratenen KI so: „Um sich eine feindliche, übermenschliche KI vorzustellen, sollten Sie sich nicht einen leblosen, bücherschlauen Denker vorstellen, der im Internet haust und böswillige E-Mails verschickt. Stellen Sie sich eine ganze außerirdische Zivilisation vor, die mit millionenfacher menschlicher Geschwindigkeit denkt und zunächst auf Computer beschränkt ist – in einer Welt von Lebewesen, die aus ihrer Sicht sehr dumm und sehr langsam sind.“
Die Gefährlichkeit besteht darin, dass niemand weiß wohin die Reise geht
Damit meint der Autor die Menschen, und denen könnten die Maschinen sehr ähnlich werden – „durch DNA-Stränge, die man per E-Mail an Labors schicken kann, die auf Anfrage Proteine produzieren, so dass eine KI, die zunächst auf das Internet beschränkt ist, künstliche Lebensformen aufbauen oder direkt zur postbiologischen Molekularproduktion übergehen kann.“ Nichts, das man sich tatsächlich vorstellen möchte, aber sollte, wenn es nach den renommierten Experten geht.
Ob die Tech-Konzerne, die viele Milliarden in die Ausbildung der Künstlichen Intelligenz stecken, darauf hören werden, bleibt abzuwarten. Nach Auffassung jener Insider, die jetzt so eindringlich warnen, ist das Hauptproblem, dass aktuell niemand abschätzen kann, wohin die Reise geht. Auch nicht die, die an den KI-Entwicklungen arbeiten.
Kommentare