Thinking Machines Lab, gegründet von der früheren OpenAI-Technikchefin Mira Murati, will laut The Information bis zu fünf Milliarden US-Dollar neues Kapital aufnehmen. Damit würde sich das bisher beschaffte Kapital der neun Monate alten Firma mindestens verdreifachen. Laut einer weiteren Quelle peilt das Start-up eine Bewertung von mindestens 50 Milliarden Dollar an.
Thinking Machines hatte zuvor zwei Milliarden Dollar bei einer Zehn-Milliarden-Bewertung von Investoren wie Andreessen Horowitz erhalten. Das Geld soll für Forschung, die Anstellung neuer Fachkräfte und Rechenkapazitäten genutzt werden. Im Oktober startete das Unternehmen Tinker, ein Werkzeug, mit dem Entwickler offene KI-Modelle anpassen können. Thinking Machines plant zudem ein Endkundenprodukt wie einen sprachbasierten KI-Assistenten.
Arm und Nvidia arbeiten künftig enger zusammen. Arm-CPUs sollen mit Nvidias NVLink Fusion-Technologie direkt mit KI-Chips kommunizieren können, teilte Arm am Montag mit. So können Kunden Neoverse-CPUs einfacher mit Nvidias GPUs kombinieren. Nvidia öffnet damit seine NVLink-Plattform auch für andere Prozessoren, statt nur eigene Modelle einzusetzen.
Die Kooperation richtet sich an Cloud-Anbieter wie Amazon, Google und Microsoft, die zunehmend eigene Arm-Chips verwenden, um Kosten zu senken und Systeme individuell zu gestalten. Arm lizenziert nur Chipdesigns und verkauft keine eigenen Prozessoren. Mit dem neuen Protokoll können Daten zwischen CPU und GPU schneller übertragen werden. Nvidia hatte 2020 versucht, Arm für 40 Milliarden Dollar zu kaufen, scheiterte aber an Auflagen in den USA und Großbritannien.
xAIs neues Grok 4.1 führt Empathie-Benchmark an, könnte aber zum Ja-Sager werden
xAI hat Grok 4.1 vorgestellt, ein KI-Modell, das in puncto Kreativität und emotionaler Intelligenz neue Maßstäbe setzen soll. Ein begleitender Sicherheitsbericht des Unternehmens zeigt jedoch, dass dieser Fortschritt auf Kosten der Ehrlichkeit und der sogenannten „Sycophancy” des Modells geht.
Cloudflare übernimmt Replicate und erweitert damit seinen KI-Modellkatalog auf über 50.000 Modelle. Die Übernahme stärkt Cloudflares bereits bestehende Inferenz-Plattform Workers AI erheblich. Replicate-Nutzer können ihre APIs weiterhin verwenden, während Workers-AI-Nutzer Zugang zu deutlich mehr Modellen und Fine-Tuning-Funktionen erhalten. Die Unternehmen planen, den gesamten Replicate-Katalog in Workers AI zu integrieren und Entwicklern zu ermöglichen, eigene Modelle auf dem Netzwerk auszuführen.
Replicate ermöglicht Entwicklern den einfachen Zugang zu KI-Modellen über eine API und hat sich zu einem wichtigen Hub für die KI-Entwicklergemeinschaft entwickelt. Cloudflare bringt sein globales Netzwerk und die serverlose Inferenz-Technologie ein. "Zusammen werden wir zum Standard für die Entwicklung von KI-Apps", sagt Replicate-Mitgründer Ben Firshman. Dessen Unternehmen soll als eigenständige Marke weiterbestehen und von Cloudflares Ressourcen profitieren.
Cloudflare ist vor allem als DNS-Anbieter bekannt und hat kürzlich ein System eingeführt, das KI-Crawler standardmäßig blockiert und Website-Betreibern mehr Kontrolle über den Zugriff auf ihre Inhalte gibt.
Google Deepmind hat WeatherNext 2 vorgestellt, das laut Unternehmen bei 99,9 Prozent aller meteorologischen Variablen und Vorhersagezeiträume besser abschneidet als das Vorgängermodell. Das KI-System übertrifft die erste WeatherNext-Generation bei Messgrößen wie Temperatur, Wind und Luftfeuchtigkeit über Zeiträume von null bis 15 Tagen. Es generiert laut Google Vorhersagen achtmal schneller und mit einer Auflösung von bis zu einer Stunde. Dafür berechnet das Modell hunderte mögliche Wetterszenarien in weniger als einer Minute auf einer einzelnen TPU – eine Aufgabe, für die herkömmliche physikbasierte Systeme auf Supercomputern Stunden benötigen würden.
Das Modell nutzt eine neue Technik namens Functional Generative Network, die Störsignale in die Architektur einbaut, um physikalisch realistische Vorhersagen zu gewährleisten. WeatherNext ist bereits in die Google-Suche, Gemini, Pixel Weather und die Weather-API integriert, Google Maps soll folgen.
OpenAI-Forscher enthüllt Details zu neuem KI-Modell mit möglichem Leistungssprung
OpenAI-Forscher Jerry Tworek hat Details zu OpenAIs neuem KI-Modell geteilt, das einen größeren Leistungssprung bringen könnte, zumindest in einigen Bereichen. Viel dreht sich um die Frage der Generalisierbarkeit des Verstärkungslernens, der Technik hinter den derzeit angesagten „Reasoning“-Modellen.
Jeff Bezos startet milliardenschweres KI-Projekt für Maschinenbau und Raumfahrt
Jeff Bezos steigt erstmals seit seinem Abschied von Amazon wieder operativ in ein Unternehmen ein. Mit seinem neuen KI-Start-up Project Prometheus will er Milliarden in Technologien investieren, die physische Ingenieursarbeiten beschleunigen sollen.
Google aktualisiert die Gemini-App mit Veo 3.1 und einer neuen Funktion: Nutzer können jetzt mehrere Referenzbilder pro Video-Input hochladen. Video und Audio werden dann aus diesen Bildern in Kombination mit einem Textprompt generiert. So lässt sich das Videomodell besser leiten.
Die Funktion wurde zuvor in Flow erprobt, Googles erweiterter Video-KI-Plattform, die auch das Verlängern von Clips und das Zusammensetzen mehrerer Szenen unterstützt. Dort gibt es auch ein etwas höheres Videokontingent als in der Gemini-App. Veo 3.1 ist seit Mitte Oktober verfügbar und bietet laut Google im Vergleich zu Veo 3.0 realistischere Texturen, höhere Eingabetreue und bessere Audioqualität.