Inhalt
summary Zusammenfassung

Perplexity AI hat das Sprachmodell R1 1776 veröffentlicht, eine Version von Deepseek-R1, die durch Nachtraining die chinesischen Zensurmaßnahmen aufheben soll.

Anzeige

Deepseek R1 hatte für große Aufregung gesorgt, da es zu einem Bruchteil der Kosten an die Leistung führender Reasoning-Modelle wie o1 und o3-mini heran kommt. Die Effizienzvorteile von Deepseek R1 führten zu heftigen Kurseinbrüchen bei US-Chip-Aktien mit KI-Bezug wie Nvidia. Nvidia verlor zwischenzeitlich rund 589 Milliarden Dollar an Börsenwert - laut Financial Times der größte Tagesverlust eines Unternehmens in der US-Geschichte.

Das Open-Source-Modell hat aber das Problem, dass es auf sensible Themen, die in China zensiert werden, nicht antwortete. Stattdessen ignoriert es die Fragen und antwortet mit vorgefertigten Talking Points der Kommunistischen Partei Chinas. Perplexity nutzt das Modell inzwischen jedoch auch für sein Angebot und hat dafür nach eigenen Angaben die Verzerrung und Zensur aus R1 entfernt.

Für das Post-Training sammelte Perplexity Daten über zensierte Themen in China, sowohl Anfragen als auch faktische Antworten. Experten identifizierten etwa 300 zensierte Themen, die zur Entwicklung eines mehrsprachigen Zensurklassifikators verwendet wurden. Damit wurden 40.000 mehrsprachige Nutzer-Prompts erfasst, die zensierte Antworten produziert hatten.

Anzeige
Anzeige

Eine große Herausforderung bestand laut dem Start-up darin, faktische Antworten auf die zensierten Prompts zu finden, insbesondere solche mit gültigen Reasoning-Ketten. Woher genau diese Antworten und vor allem die zugehörigen Reasoning-Ketten stammen, verrät Perplexity nicht.

R1 1776 erhält seine Performance trotz De-Zensierung

Evaluierungen mit mehr als 1.000 Beispielen und menschlichen Annotatoren sowie LLM-Juroren zeigen laut Perplexity, dass R1 1776 zensierte Themen umfassend und unvoreingenommen behandelt. Verschiedene Benchmarks bestätigen zudem, dass die mathematischen und Reasoning-Fähigkeiten durch die De-Zensierung nicht beeinträchtigt wurden und mit denen des Basismodells R1 vergleichbar sind.

Das Modell ist auf dem HuggingFace Repo verfügbar und kann auch über die Sonar API genutzt werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Perplexity AI hat eine Version des chinesischen Open-Source-Sprachmodells Deepseek R1 veröffentlicht, die als R1 1776 bezeichnet wird und durch Nachtraining die chinesischen Zensurmaßnahmen aufheben soll.
  • Um die Zensur zu entfernen, sammelte Perplexity Daten über zensierte Themen in China, identifizierte etwa 300 zensierte Themen und erfasste 40.000 mehrsprachige Nutzer-Prompts, die zensierte Antworten produziert hatten. Eine Herausforderung bestand darin, faktische Antworten und gültige Reasoning-Ketten für die zensierten Prompts zu finden.
  • Evaluierungen und Benchmarks zeigen laut Perplexity, dass R1 1776 zensierte Themen umfassend und unvoreingenommen behandelt und die mathematischen sowie Reasoning-Fähigkeiten durch die De-Zensierung nicht beeinträchtigt wurden. Das Modell ist auf HuggingFace verfügbar und kann über die Sonar API genutzt werden.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!