Leopold Aschenbrenner, ehemaliger Forscher im Superalignment-Team von OpenAI, hat mit der Veröffentlichung einer 165-seitigen Essay-Reihe mit dem Titel „Situational Awareness“ einen Sturm der Entrüstung in der KI-Community ausgelöst. In der ausführlichen Veröffentlichung behauptet Aschenbrenner, er sei im April aus dem Unternehmen entlassen worden, weil er kritische Sicherheitsbedenken hinsichtlich des Schutzes der fortschrittlichen KI-Modelle geäußert hatte.
Aschenbrenner, der der Bewegung des „effektiven Altruismus“ nahestand, behauptet, er habe dem Vorstand von OpenAI ein Memo mit detaillierten Sicherheitsprotokollen vorgelegt, die seiner Ansicht nach „absolut unzureichend“ seien, um die zentrale KI-Forschung des Unternehmens vor Diebstahl durch ausländische staatliche Akteure, insbesondere China, zu schützen. Er argumentiert, der Wettlauf um die Entwicklung künstlicher allgemeiner Intelligenz (AGI) sei eine Frage der nationalen Sicherheit, und der Diebstahl wichtiger algorithmischer Geheimnisse durch einen Rivalen könne verheerende Folgen haben. Seine Entlassung, so vermutet er, sei eine direkte Folge der Verbreitung dieser internen Warnungen gewesen.
OpenAI hat öffentlich erklärt, dass Aschenbrenners Entlassung nicht mit Sicherheitsbedenken zusammenhängt, sondern auf Sicherheitsproblemen beruht, darunter dem Vorwurf, er habe vertrauliche Informationen weitergegeben. Dieser öffentliche Streit kommt zu einem heiklen Zeitpunkt für den KI-Chef, nachdem Mitgründer Ilya Sutskever und Sicherheitschef Jan Leike kürzlich prominente Abgänge verzeichnen mussten. Beide äußerten Bedenken hinsichtlich der Priorisierung der Produktentwicklung gegenüber der Sicherheit im Unternehmen.
Aschenbrenners Essays gehen über seine Entlassung hinaus und stellen die provokante Vorhersage, dass AGI bereits 2027 erreicht werden könnte. Er warnt, die Welt schlafwandele in eine Zukunft, die von superintelligenten Systemen ohne ausreichende Vorbereitung und Sicherheit dominiert werde. Seine Behauptungen haben die Debatte über die interne Kultur in führenden KI-Laboren verschärft und darüber, ob der immense Druck zur Kommerzialisierung und zum Wettbewerb langfristige Sicherheitsprotokolle gefährdet. Der Vorfall unterstreicht die wachsende Spannung zwischen rasanter Innovation und den enormen Risiken, die mit der Entwicklung transformativer KI verbunden sind.


