Perplexity AI bringt neues ultraschnelles KI-Suchmodell Sonar
Kurz & Knapp
- Perplexity AI hat die neueste Version seines KI-Suchmodells Sonar vorgestellt, das auf dem Llama 3.3 70B Modell von Meta basiert und durch zusätzliches Training optimiert wurde.
- In internen Tests übertrifft Sonar laut Perplexity AI Konkurrenzmodelle wie GPT-4o mini und Claude 3.5 Haiku in der Nutzerzufriedenheit und soll auch an teurere Spitzenmodelle heranreichen oder diese in suchrelevanten Bereichen sogar übertreffen.
- Durch den Einsatz spezialisierter Hardware von Cerebras Systems, die einen ganzen Wafer in einen einzigen Chip verwandelt, erreicht Sonar eine Geschwindigkeit von 1.200 Token pro Sekunde und kann Antworten nahezu in Echtzeit generieren.
Perplexity AI hat sein hauseigenes KI-Suchmodell Sonar vorgestellt. Es basiert auf Llama 3.3 70B und soll durch Optimierungen und schnellere Hardware bessere Ergebnisse liefern als Konkurrenzmodelle.
Perplexity AI hat die neueste Version seines KI-Suchmodells Sonar veröffentlicht. Nach Angaben des Unternehmens übertrifft es in internen Tests Modelle wie GPT-4o mini und Claude 3.5 Haiku deutlich in der Nutzerzufriedenheit. Sonar soll auch an die teureren Spitzenmodelle wie GPT-4o und Claude 3.5 Sonnet heranreichen und diese in einigen für die Suche wichtigen Bereichen sogar übertreffen.
Sonar baut auf dem Llama 3.3 70B Modell von Meta auf. Perplexity hat es nach eigenen Angaben durch zusätzliches Training weiter optimiert, um in der hauseigenen Suchfunktion bessere Ergebnisse zu liefern. Insbesondere die Faktentreue und Lesbarkeit der generierten Antworten sollen dadurch verbessert worden sein. Das Unternehmen hatte bereits früher eine eigene Version von Llama 3.1 mit Sonar-Namensgebung im Einsatz.
Cerebras-Hardware beschleunigt Sonar auf 1.200 Token pro Sekunde
Um die Antwortgeschwindigkeit zu erhöhen, setzt Perplexity auf spezialisierte Hardware von Cerebras Systems. Das Unternehmen verfolgt einen anderen Ansatz bei der Herstellung von Computerchips, indem es einen gesamten Wafer in einen einzigen, riesigen Chip namens "Wafer Scale Engine" (WSE) verwandelt. Auf dieser Inferenz-Infrastruktur erreicht Sonar laut Perplexity eine Geschwindigkeit von 1.200 Token pro Sekunde. Dadurch sollen Antworten nahezu in Echtzeit generiert werden können. Das französische KI-Startup Mistral hatte kürzlich mit "Flash Answers" ebenfalls eine vergleichbare Antwortgeschwindigkeit vorgestellt, allerdings nicht für die Suche.
Vorerst soll Sonar nur zahlenden Pro-Nutzern zur Verfügung stehen, eine breitere Verfügbarkeit ist aber geplant. Zu den finanziellen Details der Kooperation mit Cerebras macht Perplexity keine Angaben.
KI-News ohne Hype
Von Menschen kuratiert.
- Mehr als 20 Prozent Launch-Rabatt.
- Lesen ohne Ablenkung – keine Google-Werbebanner.
- Zugang zum Kommentarsystem und Austausch mit der Community.
- Wöchentlicher KI-Newsletter.
- 6× jährlich: „KI Radar“ – Deep-Dives zu den wichtigsten KI-Themen.
- Bis zu 25 % Rabatt auf KI Pro Online-Events.
- Zugang zum kompletten Archiv der letzten zehn Jahre.
- Die neuesten KI‑Infos von The Decoder – klar und auf den Punkt.