Anzeige
Short

DeepL hat einen NVIDIA DGX SuperPOD installiert, um seine LLM-Angebote zu erweitern. Er befindet sich in einem schwedischen Rechenzentrum und ist nach Angaben des Unternehmens "der erste kommerzielle Einsatz dieser Größenordnung in Europa". Das Benchmarking ergab eine Leistung von 21,85 PFlop/s, was laut DeepL Platz 26 weltweit und Platz 8 in Europa bedeutet. Der NVIDIA DGX SuperPOD mit 68 NVIDIA DGX H100 Systemen soll dem Unternehmen helfen, große Sprachmodelle schneller zu trainieren und neue KI-Kommunikationstools für den globalen Markt zu entwickeln.

Short

Cerebras und Opentensor haben auf dem Supercomputer Condor Galaxy 1 (CG-1) ein leistungsfähiges Sprachmodell mit 3 Milliarden Parametern und einem Kontextfenster von 8k trainiert. Das neue Modell namens BTLM-3B-8k-base übertrifft ähnliche Modelle, erreicht eine Leistung, die mit offenen 7B-Parametermodellen vergleichbar ist, läuft auf Geräten mit nur 3 GB Speicher und ist für die kommerzielle Nutzung lizenziert. Es benötigt 71 % weniger Trainings-FLOPs und 58 % weniger Speicher für die Inferenz als vergleichbare 7B-Modelle.

Anzeige
Anzeige
Short

Warren Buffett hat in einem CNBC-Interview seine vorsichtige Faszination für künstliche Intelligenz und ChatGPT zum Ausdruck gebracht. Der legendäre Investor gibt zu, dass er nicht genug über KI wisse, um in sie zu investieren, sieht aber ihr Potenzial für den täglichen Gebrauch. Er betonte jedoch, dass er daran interessiert sei, zu verstehen, wie sich die Technologie zu einem greifbaren und wertvollen Geschäft entwickelt. Buffett räumte auch die mit KI verbundenen Risiken ein, verglich sie mit der Erfindung der Atombombe und äußerte sich unsicher über ihren langfristigen Nutzen für die Menschheit.

Anzeige
Anzeige
Anzeige
Anzeige
Google News