"Wichtigstes Problem unserer Zeit": OpenAI-Mitbegründer will sichere Super-KI erschaffen
Ilya Sutskever ist Mitgründer von OpenAI, nun plant er die Erschaffung einer sicheren Super-KI. Sein Unternehmen Safe Superintelligence (SSI) befasse sich mit dem “wichtigsten Problem unserer Zeit”. Auch Apples Ex-KI-Chef ist dabei.
Er ist der Mitgründer und ehemaliger Chef-Wissenschaftler von OpenAI, jetzt nimmt Ilya Sutskever ein neues Projekt in Angriff: die Erschaffung einer sicheren Super-KI. Sein neues Unternehmen Safe Superintelligence (SSI) mit Sitz in Palo Alto und Tel Aviv befasse sich dabei mit “dem wichtigsten technischen Problem unserer Zeit”, wie es auf der Website heißt.
Der Fokus auf nur dieses Ziel bedeute, “dass wir nicht durch Management-Overhead oder Produktzyklen abgelenkt werden”. Durch das Geschäftsmodell seien “Sicherheit und Fortschritt von kurzfristigem kommerziellem Druck unabhängig”.
Auch der frühere Leiter der KI-Abteilung bei Apple ist im Boot
Zu den Mitbegründern von SSI zählen der ehemalige OpenAI-Forscher Daniel Levy und Daniel Gross, der frühere Leiter der KI-Abteilung bei Apple. Das Ziel ist es, ein Team aus “den besten Ingenieuren und Forschern der Welt zu bilden, das sich ausschließlich auf SSI konzentriert”.
Sutskever verließ den Microsoft-Partner OpenAI im Mai, nachdem er eine zentrale Rolle bei der Entlassung und Wiedereinstellung des CEO Sam Altman im November gespielt hatte. Nach Altmans Rückkehr wurde er aus dem Vorstand entlassen. OpenAIs KI-Chatbot ChatGPT war der Auslöser für den aktuellen Boom der generativen Künstlichen Intelligenz.
Kommentare