KI in der Praxis

Anthropic stellt KI-Assistenten Claude vor, der sich an eine Verfassung hält

Jonathan Kemper
Eine verspielte Zeichnung der Silhouette eines Oberkörpers, vom Gehirn gehen Netzwerkknoten aus.

Anthropic

Anthropic hat mit Claude sein erstes, ChatGPT-ähnliches KI-Modell für Endanwender:innen präsentiert. Die KI soll sich an Gesetze halten und so eine sichere Nutzung gewährleisten.

Das 2021 gegründete KI-Unternehmen Anthropic hat sein erstes Produkt offiziell vorgestellt - parallel zur GPT-4-Präsentation von OpenAI, ein denkbar schlechter Zeitpunkt, sodass die Ankündigung etwas unterging.

"Claude" tritt in direkte Konkurrenz zu den KI-Modellen von OpenAI, ist aber im Gegensatz zu GPT-4 nicht multimodal, kann also nur Texteingaben verarbeiten und wieder Text ausgeben.

Der KI-Assistent wurde in den vergangenen Wochen bereits in Anwendungen von Partnerunternehmen integriert, darunter das Projektmanagementtool Notion, die Frage-Antwort-Plattform Quora und die datensichere Suchmaschine DuckDuckGo.

Auch das auf digitale Verträge spezialisierte Unternehmen Robin AI hatte bereits Gelegenheit, Claude zu testen und befand, dass er "sehr gut darin ist, komplexe Konzepte in einfachen Worten zu verfassen, zusammenzufassen, zu übersetzen und zu erklären".

Nach einem intensiven Vergleich zwischen ChatGPT und Claude resümierte die Plattform Scale:

Insgesamt ist Claude ein ernstzunehmender Konkurrent von ChatGPT, mit Verbesserungen in vielen Bereichen. Claude ist zwar als Demonstration "verfassungsrechtlicher" Prinzipien konzipiert, neigt aber nicht nur eher dazu, unangemessene Anfragen abzulehnen, sondern macht auch mehr Spaß als ChatGPT. Claude schreibt zwar ausführlicher, aber auch natürlicher. Seine Fähigkeit, kohärent über sich selbst, seine Grenzen und seine Ziele zu schreiben, scheint es ihm auch zu ermöglichen, Fragen zu anderen Themen natürlicher zu beantworten.

Scale

Bei anderen Aufgaben, wie z.B. Coding, schnitt Claude schlechter ab und machte mehr Fehler. Bei logischem Denken und mathematischen Berechnungen sind Claude und ChatGPT ähnlich (schlecht), wobei OpenAI für GPT-4 deutliche Fortschritte verspricht.

Anthropic gibt nicht an, wie viele Parameter das Claude zugrundeliegende Sprachmodell hat. Eine neuere wissenschaftliche Veröffentlichung lässt aber eine Größenordnung von 175 Milliarden vermuten, das ist auf dem Niveau von GPT-3 und GPT-3.5. Die Parameterzahl von GPT-4 ist nicht bekannt, aber auch nur einer von mehreren Parametern, die die Qualität eines KI-Modells repräsentieren können.

Constitutional AI: Feedback durch KI statt Menschen

Bei seiner Gründung vor rund zwei Jahren hatte Anthropic noch kein konkretes Geschäftsmodell, sammelte aber dennoch gut 700 Millionen US-Dollar ein.

Grund für den Vertrauensvorschuss könnte der Ansatz von Anthropic sein, bei der Entwicklung seiner KI-Modelle die Sicherheit in den Vordergrund zu stellen - zumindest nach außen. Inwieweit das Start-up aus San Francisco dieses Versprechen halten kann, müssen weitere Experimente zeigen.

"Wir haben Sprachmodelle darauf trainiert, besser auf widersprüchliche Fragen zu antworten, ohne stumpf zu werden und wenig zu sagen", sagt Anthropic.

Dabei setzten sie auf eine Technik namens Constitutional AI, die auch die Abhängigkeit von menschlichem Feedback verringern soll. Stattdessen war eine eigens entwickelte KI dafür verantwortlich, die möglichen Antworten von Claude gemäß den in der "Verfassung" festgelegten Gesetzen zu optimieren. Laut Anthropic hat die KI das Ziel, möglichst "hilfreich, ehrlich und harmlos" ("helpful, honest, harmless") zu sein.

Zugang zu Chatbot und API noch geschlossen

Derzeit ist Claude nur in einer geschlossenen Betaversion verfügbar, wobei Anthropic den Zugriff auf die KI sowohl über ein Webinterface als auch über eine API für eigene Produkte ermöglicht.

Analog zu ChatGPT und ChatGPT Turbo bietet Anthropic zwei Varianten seines KI-Assistenten an, Claude und Claude Instant, wobei Instant eine günstigere, schnellere, aber vermutlich weniger zuverlässige Alternative darstellt.

Beide Varianten können 9.000 Token als Kontext verarbeiten. Zum Vergleich: ChatGPT akzeptiert (wahrscheinlich) 4.096, GPT-4 in seiner umfangreichsten Version bis zu 32.000. Anthropic zählt im Gegensatz zu OpenAI nicht nur die bei der Ausgabe generierten Zeichen, sondern auch die des Prompts.

Prompt/1.000.000 Zeichen Ausgabe/1.000.000 Zeichen
Claude Instant $0,43 $1,45
Claude $2,90 $8,60