OpenAI stellt mit gpt-oss-safeguard eine neue Modellreihe zur Sicherheitsklassifizierung vor. Die Modelle in zwei Größen (120b und 20b) sind Open Source unter Apache 2.0 und lassen sich frei einsetzen und anpassen. Im Unterschied zu klassischen Klassifikatoren können sie laut OpenAI Sicherheitsrichtlinien direkt bei der Anwendung interpretieren, statt sie vorab zu lernen. So lassen sich Regeln sofort ändern, ohne das Modell neu zu trainieren.
Entwickler können zudem die Entscheidungswege des Modells nachvollziehen. Ziel ist eine flexiblere und transparentere Durchsetzung von Sicherheitsvorgaben. Die Modelle basieren auf OpenAIs Open-Source-Modell gpt-oss und sind Teil einer Zusammenarbeit mit ROOST zur Entwicklung einer offenen Sicherheitsinfrastruktur.
 
					 
					