OpenAI stellt mit gpt-oss-safeguard eine neue Modellreihe zur Sicherheitsklassifizierung vor. Die Modelle in zwei Größen (120b und 20b) sind Open Source unter Apache 2.0 und lassen sich frei einsetzen und anpassen. Im Unterschied zu klassischen Klassifikatoren können sie laut OpenAI Sicherheitsrichtlinien direkt bei der Anwendung interpretieren, statt sie vorab zu lernen. So lassen sich Regeln sofort ändern, ohne das Modell neu zu trainieren.

Anzeige

Entwickler können zudem die Entscheidungswege des Modells nachvollziehen. Ziel ist eine flexiblere und transparentere Durchsetzung von Sicherheitsvorgaben. Die Modelle basieren auf OpenAIs Open-Source-Modell gpt-oss und sind Teil einer Zusammenarbeit mit ROOST zur Entwicklung einer offenen Sicherheitsinfrastruktur.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!