OpenAI stellt dem US-amerikanischen AI Safety Institute am National Institute of Standards and Technology (NIST) frühzeitig sein nächstes Flaggschiff-Modell zur Verfügung, um gemeinsam die Evaluierung von KI voranzutreiben. Sam Altman, CEO von OpenAI, betont zudem die Verpflichtung des Unternehmens, mindestens 20 Prozent der Rechenressourcen für Sicherheitsmaßnahmen aufzuwenden. Der ehemalige OpenAI-Sicherheitsforscher Jan Leike hatte zuvor gesagt, OpenAI habe sich nicht an diese Vereinbarung gehalten. Zudem habe OpenAI im Mai Klauseln aufgehoben, die es dem Unternehmen erlaubten, bereits erworbene Aktienrechte zu annullieren und Mitarbeiter zum Stillschweigen zu verpflichten, so Altman. Ziel sei es, ein Umfeld zu schaffen, in dem aktuelle und ehemalige Mitarbeiter ihre Bedenken ohne Angst vor Repressalien äußern könnten.
Themen Hub Künstliche Intelligenz
Künstliche Intelligenz ist wahlweise ein Forschungsgebiet, die wichtigste Tech-Innovation der Menschheit, ihr Untergang – oder schlicht ein Hirngespinst aus dem Silicon Valley. Können Maschinen wirklich intelligent sein? Was ist das überhaupt: Intelligenz? Welche KI-Technik bietet Chancen, was sind die Risiken? Von neuronalen Netzen bis zur Science-Fiction-Vision Super-KI, von Deepfakes bis zur KI-Überwachung: Bei THE DECODER gibt es aktuelle KI-News und Informationen zu allen Facetten der Künstlichen Intelligenz.
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige