Safe Superintelligence: Neues Startup von OpenAI-Mitgründer verspricht „sichere“ AI
Erst im vergangenen Mai hat Ilya Sutskever, der Mitgründer und bisherige wissenschaftliche Leiter von OpenAI, das Unternehmen nach fast einem Jahrzehnt verlassen (wir berichteten). Er kündigte daraufhin an, dass er sich einem neuen Projekt widmen wollte. Nun zeigt sich, was für ein Projekt das wird. Laut Handelsblatt hat Sutskever angekündigt, ein neues AI-Startup namens Safe Superintelligence zu gründen. Die neue Jungfirma soll eine „sichere“ Super-AI entwickeln.
OpenAI: Chef-Forscher Ilya Sutskever verlässt Startup nach internen Differenzen
Safe Superintelligence legt Fokus auf sichere Super-AI
Sutskever stand bei OpenAI gegen Ende im Mittelpunkt von einem Richtungsstreit. Als Vorstandsmitglied hatte er im letzten Jahr zunächst für die Absetzung Altmans als CEO gestimmt. Dann änderte er seine Meinung und unterzeichnete einen offenen Brief, der Altmans Rückkehr forderte. Bei dem Streit ging es gerade um das Thema Sicherheit. Eine Gruppe von Beschäftigten hatte Sam Altman vorgeworfen, neue Entwicklungen von AI zu früh mit der Öffentlichkeit zu teilen. Er habe Sicherheitsrisiken vorher nicht ausreichend abgewogen.
Mittlerweile ist der Co-Founder selbst nicht mehr bei OpenAI. Sein neues Unternehmen Safe Superintelligence (SSI) mit Sitz in Palo Alto, Kalifornien, und Tel Aviv befasse sich mit „dem wichtigsten technischen Problem unserer Zeit“, hieß es auf der Website. „Dieses Unternehmen ist insofern etwas Besonderes, als sein erstes Produkt die sichere Superintelligenz sein wird, und es wird bis dahin nichts anderes machen“, sagte Sutskever gegenüber Bloomberg. „Es wird völlig isoliert sein von dem äußeren Druck, sich mit einem großen und komplizierten Produkt befassen zu müssen und in einem Konkurrenzkampf stecken zu bleiben.“
Founder Sutskever war wichtig für OpenAI-Modelle
„Auf der grundlegendsten Ebene sollte eine sichere Superintelligenz die Eigenschaft haben, der Menschheit nicht in großem Umfang zu schaden“, so Sutskever.“ Der Gründer machte keinen Angaben, wer die Geldgeber hinter Safe Superintelligence sind oder wie viele Investorengelder das Startup eingesammelt hat. Sutskever gilt als Vertrauter von Tesla-Chef Elon Musk. Neben ihm zählen OpenAI-Forscher Daniel Levy sowie Daniel Gross, ehemaliger Leiter der KI-Sparte bei Apple, zu den Co-Gründern von SSI.
Wie genau die sichere AI aussehen soll, hat Sutskever noch nicht genau erklärt. Er deutet an, dass es um fundamental implementierte Sicherheitsmechanismen gehen soll, anstatt wie derzeit bei anderen KI-Firmen den Modellen schlicht Vorgaben zu machen, welche Informationen sie herausgeben sollen und welche nicht. Sutskever gilt als einer der wichtigsten KI-Vordenker der Welt. Als Universitätsforscher und später als Wissenschaftler bei Google spielte er eine wichtige Rolle bei der Entwicklung einer Reihe von wichtigen AI-Fortschritten. Er gilt auch als treibende Kraft hinter den leistungsfähigsten KI-Modellen von OpenAI.