
OpenAI sagt, es richtet einen neuen Sicherheits- und Sicherheitsausschuss ein und hat begonnen, ein neues künstliches Intelligenzmodell zu trainieren, um das ChatGPT-Chatbot-System zu ersetzen, das als Grundlage dient.
Das Start-up aus San Francisco sagte in einem Blogbeitrag am Dienstag, dass der Ausschuss den gesamten Vorstand in "kritischen Sicherheits- und Sicherheitsentscheidungen" für seine Projekte und Operationen beraten wird.
Der Sicherheitsausschuss wird eingeführt, während die Debatte über die KI-Sicherheit im Unternehmen schwelt, das ins Rampenlicht gerückt ist, nachdem der Forscher Jan Leike zurückgetreten war und OpenAI dafür kritisierte, die Sicherheit "zugunsten glänzender Produkte" in den Hintergrund treten zu lassen.
OpenAI sagte, es habe "vor Kurzem damit begonnen, sein nächstes Frontier-Modell zu trainieren" und seine KI-Modelle führen die Branche in Bezug auf Leistungsfähigkeit und Sicherheit an, obwohl es nicht auf die Kontroverse einging. "Wir begrüßen eine fundierte Debatte in diesem wichtigen Moment", sagte das Unternehmen.
AI-Modelle sind Vorhersagesysteme, die auf umfangreichen Datensätzen trainiert werden, um auf Abruf Texte, Bilder, Videos und menschenähnliche Gespräche zu generieren. Frontier-Modelle sind die leistungsstärksten, modernsten KI-Systeme.
Die Mitglieder des Sicherheitsausschusses umfassen den OpenAI-CEO Sam Altman und den Vorsitzenden Bret Taylor sowie zwei weitere Vorstandsmitglieder, Adam D'Angelo, CEO von Quora, und Nicole Seligman, ehemalige General Counsel von Sony. OpenAI sagte, vier technische und politische Experten des Unternehmens seien ebenfalls Mitglieder.
Die erste Aufgabe des Ausschusses wird es sein, die Prozesse und Sicherheitsvorkehrungen von OpenAI zu bewerten und weiterzuentwickeln und dem Vorstand innerhalb von 90 Tagen Empfehlungen zu unterbreiten. Das Unternehmen sagte, es werde dann die angenommenen Empfehlungen "auf eine Art und Weise öffentlich veröffentlichen, die mit Sicherheit und Schutz vereinbar ist".