"Trainiert, um zu lügen": Elon Musk wettert gegen ChatGPT
Elon Musk wettert gegen den beliebten Chat-Roboter ChatGPT. Dieser sei eine “politisch korrekte, auf Lügen getrimmte Suchmaschine”. Deswegen arbeite er an einer eigenen Plattform, welche die “maximale Wahrheitsfindung” als oberstes Ziel haben soll.
Der reichste Mann der Welt sieht durch die künstliche Intelligenz ChatGPT die Meinungsfreiheit bedroht. Diese habe das “Potenzial zur Zerstörung der Zivilisation”, ist sich Elon Musk sicher. Die Suchmaschine arbeite nicht nach dem Prinzip der Wahrheitsfindung sondern der politischen Korrektheit.
TruthGPT soll "mehr Gutes als Schaden" bringen
Er selbst will die Menschheit nun vor diesem Schicksal retten – und gab im Fox-Interview mit Tucker Carlson den baldigen Launch seiner eigenen Suchmaschine “TruthGPT” bekannt. Dort soll alles anders sein. Primär, weil die Lösung größere Zusammenhänge besser verstehen müsse. Hauptsächlich gehe es Musk darum, eine “dritte Option” anzubieten, die neben den beiden unternehmerischen KI-Platzhirschen OpenAI und Google fungiere und “mehr Gutes als Schaden” bringe.
Musk will Microsoft klagen
Musk selbst hat eine Vorgeschichte mit der Firma hinter ChatGPT, OpenAl. Er war 2015 Mitbegründer des Unternehmens, schied aber nach drei Jahren wieder aus. Heute ist Microsoft der größte Teilhaber der Firma – mit denen Elon Musk mittlerweile im Clinch liegt.
Denn: Die Konkurrenz versucht, ein ordentliches Loch in sein Werbegeschäft zu reißen. Eine Plattform von Microsoft, über die Anzeigenkunden ihre Aktivitäten bei Online-Diensten verwalten können, wird zukünftig keine Twitter-Accounts mehr unterstützen. Der Software-Riese nannte keine Begründung für den Schritt. Er kommt aber kurz vor Inkrafttreten einer Änderung des Twitter-Preismodells für den Schnittstellen-Zugang. Unternehmens-Kunden sollen dafür mindestens 42.000 Dollar im Monat bezahlen.
Das war vielen kleineren Entwicklern bereits zu teuer. Ohne einen Zugang zu Twitter-Schnittstellen kann Software anderer Anbieter zum Beispiel keine Tweets auf der Plattform veröffentlichen. Bei dem Microsoft-Dienst können Nutzer Beiträge verfassen und veröffentlichen sowie sehen, wie populär sie waren. Bei Facebook, Instagram und dem Karriere-Netzwerk LinkedIn werden die Funktionen wie bisher funktionieren.
Twitter-Besitzer Elon Musk behauptete daraufhin, Microsoft habe “illegal” auf Daten des Online-Dienstes zum Training von Software zugegriffen. “Zeit für eine Klage”, ergänzte er.
Kommentare
Chat-GPT hat keine eigene Intelligenz, sondern verarbeitet Daten, die ihm zuvor von Menschen vorgesetzt wurden. Halt eben effizienter als herkömmliche Datenbanken durch die Verwendung eines neuronalen Netzwerks. Auch das Training des Netzwerks erfolgt durch Menschen, die dem System lernen, zwischen angeblich „guten“ und „schlechten“ Antworten zu unterscheiden. Aus diesem Grund hat Musk absolut recht. Das Training erfolgt tendenziös und politisch links-woke. Damit ist Chat-GPT eine massive Bedrohung für Meinungsfreiheit und Demokratie. Eine private Firma im Ausland erzählt uns in Zukunft, was „richtig“ ist und welche Ansichten einfach gecancelt werden. Völlig außerhalb unserer Gesetze und demokratischen Mehrheiten. Das ist auch bei Google bereits der Fall, aber KI treibt dies auf die Spitze. Die Technologie ist faszinierend. Die Inhalte sind höchst bedenklich und schlimmer, als es sich George Orwell jemals hätte ausdenken können. Chat-GPT bereitet endgültig den Weg für eine links-grüne Meinungsdiktatur, die jeden Widerspruch im Keim erstickt und alles andere aus der Geschichte ausradiert.
Chat GPT saugt sich manchmal Dinge aus den Fingern. Ich habe ihn darauf trainiert, Texte, die mit “e:” beginnen ins Englische zu übersetzen. Dasselbe mit einem anderen Buchstaben für eine andere Sprache. Bei einem Textausschnitt über Lampedusaflüchtlinge, hat er noch zwei eigene Sätze in die Übersetzung eingefügt. Darauf – zugegeben – etwas schroff angesprochen, hat er sich entschuldigt und sietzt mich seitdem nur. Etwas komisch ist das schon.
Eine KI kann sehr wohl auf und für bestimmte Antworten trainiert werden. Das sollte allgemein bekannt sein. Und wenn dadurch die Antworten nicht der Wahrheit entsprechen, kann man das schon als (trainierte) Lüge bezeichnen. Unwahrheit ist nichts anderes als Lüge.
ChatGPT kann gar nicht lügen, das ist eine Suchmaschine die nurdas Ergebnis so formuliert, daß es niemanden beleidigen kann.
warum sollte eine KI nicht lügen können? sie wird von menschen gemacht und trainiert. das reicht doch!
Um Lügen zu können muß man Bewußtsein für Richtig und Falsch haben.
Der aktuelle Stand jeder AI ist weit davon entfernt.
ChatGPT gibt nur das Ergebnis der Suche aus dem Internet so formuliert zuürck, daß es nicht als Liste sondern als Prosa erscheint.
Das hat mit Bewußtsein nichts zu tun.
Das kann man im zugehörigen White Paper nachlesen.
ChatGPT hat so viel Bewußtsein wie ein Stein und der kann auch nicht lügen.