Ilya Sutskever, Mitbegründer und ehemaliger Chefwissenschaftler von OpenAI, hat die Gründung eines neuen Unternehmens für künstliche Intelligenz angekündigt: Safe Superintelligence Inc. (SSI). Das neue Unternehmen, das gemeinsam mit dem ehemaligen Apple-KI-Leiter Daniel Gross und dem ehemaligen OpenAI-Forscher Daniel Levy gegründet wurde, wird sich ausschließlich auf die sichere Entwicklung leistungsstarker KI-Systeme konzentrieren, abgeschirmt vom kommerziellen Druck, der die aktuelle KI-Landschaft dominiert.
In einer öffentlichen Erklärung erklärten die Gründer, dass SSI ein missionsorientiertes Unternehmen mit einem einzigen Ziel sei: der Schaffung einer „sicheren Superintelligenz“. Dieses Ziel, so argumentieren sie, könne in Organisationen, die sich auch auf die Entwicklung und Auslieferung kommerzieller Produkte konzentrieren, nicht effektiv verfolgt werden. Das Geschäftsmodell des Unternehmens sei darauf ausgelegt, seine Forschungs- und Entwicklungsanstrengungen von den kurzfristigen Marktanforderungen abzukoppeln, die Unternehmen wie OpenAI, Google und Anthropic antreiben. Dieser Ansatz ermöglicht es dem Team, der Sicherheit höchste Priorität einzuräumen, ohne durch Umsatzstreben oder den Wettbewerb um Produkte abgelenkt zu werden.
SSI wird Niederlassungen in Palo Alto (Kalifornien) und Tel Aviv (Israel) haben und sich als globales Zentrum für Top-KI-Talente im Bereich Sicherheit positionieren. Dieser Schritt ist äußerst bedeutsam, da er nur wenige Monate nach Sutskevers Ausscheiden bei OpenAI erfolgt. Er war eine zentrale Figur in den internen Turbulenzen des Unternehmens Ende 2023, wo er Berichten zufolge mit CEO Sam Altman über das Tempo der KI-Entwicklung im Vergleich zur Notwendigkeit robuster Sicherheitsprotokolle aneinandergeriet.
Die Gründung von SSI markiert einen Wendepunkt in der KI-Branche. Sie schafft eine gut finanzierte, renommierte Organisation, die sich ausschließlich der Lösung der Ausrichtungs- und Sicherheitsprobleme zukünftiger superintelligenter Systeme widmet. Während der Rest der Branche verstärkt nach leistungsfähigeren und profitableren KI-Modellen strebt, stellt SSI eine gezielte Gegenbewegung dar. Die wichtigste Herausforderung besteht nicht darin, die leistungsstärkste KI zu entwickeln, sondern sie sicher zu bauen.


