Arm und Nvidia arbeiten künftig enger zusammen. Arm-CPUs sollen mit Nvidias NVLink Fusion-Technologie direkt mit KI-Chips kommunizieren können, teilte Arm am Montag mit. So können Kunden Neoverse-CPUs einfacher mit Nvidias GPUs kombinieren. Nvidia öffnet damit seine NVLink-Plattform auch für andere Prozessoren, statt nur eigene Modelle einzusetzen.
Die Kooperation richtet sich an Cloud-Anbieter wie Amazon, Google und Microsoft, die zunehmend eigene Arm-Chips verwenden, um Kosten zu senken und Systeme individuell zu gestalten. Arm lizenziert nur Chipdesigns und verkauft keine eigenen Prozessoren. Mit dem neuen Protokoll können Daten zwischen CPU und GPU schneller übertragen werden. Nvidia hatte 2020 versucht, Arm für 40 Milliarden Dollar zu kaufen, scheiterte aber an Auflagen in den USA und Großbritannien.
xAIs neues Grok 4.1 führt Empathie-Benchmark an, könnte aber zum Ja-Sager werden
xAI hat Grok 4.1 vorgestellt, ein KI-Modell, das in puncto Kreativität und emotionaler Intelligenz neue Maßstäbe setzen soll. Ein begleitender Sicherheitsbericht des Unternehmens zeigt jedoch, dass dieser Fortschritt auf Kosten der Ehrlichkeit und der sogenannten „Sycophancy” des Modells geht.
Cloudflare übernimmt Replicate und erweitert damit seinen KI-Modellkatalog auf über 50.000 Modelle. Die Übernahme stärkt Cloudflares bereits bestehende Inferenz-Plattform Workers AI erheblich. Replicate-Nutzer können ihre APIs weiterhin verwenden, während Workers-AI-Nutzer Zugang zu deutlich mehr Modellen und Fine-Tuning-Funktionen erhalten. Die Unternehmen planen, den gesamten Replicate-Katalog in Workers AI zu integrieren und Entwicklern zu ermöglichen, eigene Modelle auf dem Netzwerk auszuführen.
Replicate ermöglicht Entwicklern den einfachen Zugang zu KI-Modellen über eine API und hat sich zu einem wichtigen Hub für die KI-Entwicklergemeinschaft entwickelt. Cloudflare bringt sein globales Netzwerk und die serverlose Inferenz-Technologie ein. "Zusammen werden wir zum Standard für die Entwicklung von KI-Apps", sagt Replicate-Mitgründer Ben Firshman. Dessen Unternehmen soll als eigenständige Marke weiterbestehen und von Cloudflares Ressourcen profitieren.
Cloudflare ist vor allem als DNS-Anbieter bekannt und hat kürzlich ein System eingeführt, das KI-Crawler standardmäßig blockiert und Website-Betreibern mehr Kontrolle über den Zugriff auf ihre Inhalte gibt.
OpenAI-Forscher enthüllt Details zu neuem KI-Modell mit möglichem Leistungssprung
OpenAI-Forscher Jerry Tworek hat Details zu OpenAIs neuem KI-Modell geteilt, das einen größeren Leistungssprung bringen könnte, zumindest in einigen Bereichen. Viel dreht sich um die Frage der Generalisierbarkeit des Verstärkungslernens, der Technik hinter den derzeit angesagten „Reasoning“-Modellen.
Google aktualisiert die Gemini-App mit Veo 3.1 und einer neuen Funktion: Nutzer können jetzt mehrere Referenzbilder pro Video-Input hochladen. Video und Audio werden dann aus diesen Bildern in Kombination mit einem Textprompt generiert. So lässt sich das Videomodell besser leiten.
Die Funktion wurde zuvor in Flow erprobt, Googles erweiterter Video-KI-Plattform, die auch das Verlängern von Clips und das Zusammensetzen mehrerer Szenen unterstützt. Dort gibt es auch ein etwas höheres Videokontingent als in der Gemini-App. Veo 3.1 ist seit Mitte Oktober verfügbar und bietet laut Google im Vergleich zu Veo 3.0 realistischere Texturen, höhere Eingabetreue und bessere Audioqualität.
Finanz-Leak: Allein die Bereitstellung von KI-Modellen frisst angeblich OpenAIs Umsatz auf
Laut Techcrunch und dem Blogger Ed Zitron zeigen neue interne Unterlagen, wie viel Geld zwischen OpenAI und Microsoft fließt. Demnach sind allein die Kosten für die Bereitstellung der Modelle, die sogenannte Inferenz, enorm hoch. Ein profitables OpenAI wäre damit in weiter Ferne.
OpenAI veröffentlicht Prompting‑Guide für neues GPT‑5.1‑Modell
OpenAIs neues 5.1‑Modell soll besonders präzise auf Nutzereingaben reagieren. Ein umfangreicher Prompting‑Guide zeigt, wie Entwickler das System steuern können. OpenAI gibt unter anderem Prompt-Tipps, um Geschwätzigkeit zu reduzieren und die Vollständigkeit bei agentischen Aufgaben zu verbessern.
Google startet Deep Research in NotebookLM. Mit Deep Research durchsucht das Tool laut Google Hunderte Webseiten und erstellt daraus einen strukturierten Bericht mit kommentierten Quellen. Nutzer aktivieren die Funktion über das Quellenfeld, indem sie „Web“ auswählen und dann zwischen „Deep Research“ für ausführliche Analysen oder „Fast Research“ für schnelle Suchen wählen. Deep Research kann sehr nützlich sein, macht jedoch wie andere LLM-basierte Systeme auch Fehler.
Zusätzlich unterstützt NotebookLM jetzt weitere Dateiformate. Laut Google lassen sich Google Sheets, Drive-Links, PDFs aus Drive, Word-Dokumente und Bilder hochladen. Das System extrahiert Informationen aus Bildern und kann sie beispielsweise chatbar machen. Außerdem rollt Google eine Chat-Verlaufsfunktion aus. Nutzer können Gespräche beenden und später fortsetzen. Der Verlauf kann jederzeit gelöscht werden.
Zuvor stellte Google stilistische Anpassungen für Audio- und Videoformate in NotebookLM vor. Das ermöglicht mutmaßliche Urheberrechtsverstöße, wie sie auch bei anderen generativen KI-Werkzeugen auftreten.
LinkedIn startet in den USA eine neue KI-gestützte Suche für Premium-Mitglieder. Laut LinkedIn soll die Funktion helfen, schneller passende Personen zu finden. Statt fester Schlagworte können Nutzer nun einfache Sprache verwenden, etwa „jemand, der ein kleines Unternehmen aufgebaut hat“ oder „eine Fachkraft für digitales Marketing“. Zuvor mussten genaue Angaben wie Firmenname oder Jobtitel vorliegen, sonst lieferte die Suche kaum passende Treffer.
Die Funktion nutzt nach Angaben von LinkedIn die eigenen Daten und soll die Suche flexibler machen. Eine Ausweitung auf weitere Länder ist geplant. LinkedIn hat zudem begonnen, Daten von Nutzern für KI-Training einzusetzen. Wer das nicht möchte, muss dem in den Einstellungen widersprechen.