Die Vorstellung von „o1“ endete die Spekulationen um das lange geheim gehaltene Projekt unter dem Decknamen „Strawberry“, das seit Monaten in der Gerüchteküche kursierte. Im Gegensatz zu seinem Vorgänger, „ChatGPT“, verfolgt „o1“ einen innovativen Ansatz, bei dem es nicht nur auf Trainingsdaten reagiert, sondern aktiv über die Probleme nachdenkt, bevor es eine Antwort gibt. OpenAI hat dies durch eine neue Trainingsmethode erreicht, bei der der KI sowohl positives als auch negatives Feedback gegeben wird, um die Qualität ihrer Antworten zu verbessern.

Wie das neue KI-Modell „nachdenkt“: Die neue Methodik im Detail

Laut OpenAI ist „o1“ in der Lage, ähnlich wie Menschen über ein Problem zu grübeln, bevor es eine Lösung anbietet. Während des Denkprozesses schärft das Modell seine „Gedankengänge“ und verfeinert seine Strategien zur Problemlösung. Besonders hervorzuheben ist, dass „o1“ in der Lage ist, seine Fehler zu erkennen und entweder zu korrigieren oder alternative Lösungsansätze zu verfolgen. Diese Methode, bekannt als „Gedankenketten“ (chain-of-thought, COT), ermöglicht es „o1“, komplexe Aufgaben in kleinere Schritte zu unterteilen. Dies stellt einen bedeutenden Fortschritt gegenüber der bisherigen Version „GPT-4o“ dar.

Praktische Anwendung

Das „o1“-Modell hat sich besonders bei Mathematikaufgaben hervorgetan und beeindruckte durch das Lösen von 83 Prozent der Aufgaben der Internationalen Mathematik-Olympiade, während „GPT-4o“ lediglich 13 Prozent der Aufgaben bewältigte. Trotz dieser Erfolge hat das Modell jedoch einige Einschränkungen. So kann „o1“ derzeit nicht im Web nach Informationen suchen, unterstützt keine Datei- oder Bild-Uploads und zeigt sich in einigen Fällen langsamer als ChatGPT. Dies schränkt seine Funktionalität in bestimmten Anwendungen ein.

Risiken und Sicherheitsaspekte

OpenAI hat „o1“ erstmals mit der Risikobewertung „mittel“ in Bezug auf chemische, biologische und nukleare Gefahren versehen. Diese Einstufung spiegelt die Möglichkeit wider, dass Nutzer das Modell aufgrund seines enormes Wissens, missbrauchen könnten, um gefährliche Technologien zu entwickeln.

Die Einführung von „o1“ markiert einen bedeutenden Schritt in der Weiterentwicklung von Künstlicher Intelligenz. Während das Modell bereits beeindruckende Fortschritte zeigt, sind weiterhin Entwicklungen und Anpassungen erforderlich, um seine Funktionalität zu optimieren und potenzielle Risiken zu minimieren. Die breite Öffentlichkeit wird gespannt darauf blicken, wie sich „o1“ in der Praxis bewährt und welche neuen Möglichkeiten und Herausforderungen es mit sich bringt.