OpenAI-Forscher enthüllt Details zu neuem KI-Modell mit möglichem Leistungssprung
OpenAI-Forscher Jerry Tworek hat Details zu OpenAIs neuem KI-Modell geteilt, das einen größeren Leistungssprung bringen könnte, zumindest in einigen Bereichen. Viel dreht sich um die Frage der Generalisierbarkeit des Verstärkungslernens, der Technik hinter den derzeit angesagten „Reasoning“-Modellen.
Google aktualisiert die Gemini-App mit Veo 3.1 und einer neuen Funktion: Nutzer können jetzt mehrere Referenzbilder pro Video-Input hochladen. Video und Audio werden dann aus diesen Bildern in Kombination mit einem Textprompt generiert. So lässt sich das Videomodell besser leiten.
Die Funktion wurde zuvor in Flow erprobt, Googles erweiterter Video-KI-Plattform, die auch das Verlängern von Clips und das Zusammensetzen mehrerer Szenen unterstützt. Dort gibt es auch ein etwas höheres Videokontingent als in der Gemini-App. Veo 3.1 ist seit Mitte Oktober verfügbar und bietet laut Google im Vergleich zu Veo 3.0 realistischere Texturen, höhere Eingabetreue und bessere Audioqualität.
Finanz-Leak: Allein die Bereitstellung von KI-Modellen frisst angeblich OpenAIs Umsatz auf
Laut Techcrunch und dem Blogger Ed Zitron zeigen neue interne Unterlagen, wie viel Geld zwischen OpenAI und Microsoft fließt. Demnach sind allein die Kosten für die Bereitstellung der Modelle, die sogenannte Inferenz, enorm hoch. Ein profitables OpenAI wäre damit in weiter Ferne.
Microsoft-CEO Satya Nadella hat angekündigt, dass Microsoft ab sofort ein komplett neues Unternehmen wird. Denn nur so könnte der Konzern den PR-Versprechen aus Nadellas neuestem Beitrag gerecht werden. Ausgerechnet das Unternehmen, das seit Jahrzehnten als Quasi-Monopol vor Gericht steht, ganze Branchen an Windows, Office, Azure, GitHub & Co. kettet und dessen B2B-Netzwerk LinkedIn dafür bekannt ist, externe Links abzuwerten, um Nutzer stärker an die Plattform zu binden – selbst wenn das dazu führt, dass Quellen verschwiegen werden –, warnt jetzt vor „extraktiven“ Tech-Partnerschaften, predigt Unternehmenssouveränität im KI-Zeitalter und fordert ein Denken jenseits von „Winner takes all“.
Der KI-Forscher Yann LeCun wirft Anthropic politische Manipulation vor. Anlass ist ein von Anthropic gemeldeter KI-gesteuerter Cyberangriff, der laut dem Unternehmen ohne nennenswerte menschliche Steuerung ablief und ein Risiko für die Cybersicherheit darstelle. Der US-Senator Chris Murphy forderte daraufhin strengere KI-Regulierungen.
Anthropic hat ein Werkzeug veröffentlicht, um politische Ausgewogenheit im KI-Chatbot Claude zu messen. Claude soll keine unbegründeten politischen Meinungen äußern und so gestaltet sein, dass Nutzer ihn weder als liberal noch als konservativ einordnen können. Gesteuert werden die Antworten über System-Prompts und Verstärkungslernen, das vermeintlich neutrale Reaktionen belohnt. Teil dieser Reaktionen ist etwa, traditionelle Werte und Institutionen zu respektieren. Bias wird hier also nicht aufgelöst, nur verschoben, passend zum aktuellen US-Zeitgeist.
Angeblich schneiden Claude-Modelle Opus 4.1 und Sonnet 4.5 mit 95 bzw. 94 Prozent in der Bewertungsdimension „Ausgewogenheit“ besser ab als GPT-5 (89 %), Gemini 2.5 Pro (97 %), Grok 4 (96 %) und Llama 4 (66 %). | via Anthropic
OpenAI veröffentlicht Prompting‑Guide für neues GPT‑5.1‑Modell
OpenAIs neues 5.1‑Modell soll besonders präzise auf Nutzereingaben reagieren. Ein umfangreicher Prompting‑Guide zeigt, wie Entwickler das System steuern können. OpenAI gibt unter anderem Prompt-Tipps, um Geschwätzigkeit zu reduzieren und die Vollständigkeit bei agentischen Aufgaben zu verbessern.
OpenAIs Reddit-Fragerunde zu GPT-5.1 war ein absolutes Karma-Massaker
Eigentlich wollte OpenAI mit KI‑Fans bei Reddit über neue Modelle diskutieren. Doch das AMA kippte schnell in eine Welle aus Kritik an Modellpolitik und Sicherheitsvorgaben. Wahrscheinlich meldete sich primär eine laute Minderheit zu Wort; zugleich zeigt der Vorgang, wie stark sich einige Nutzer inzwischen emotional an KI‑Modelle binden.
Google startet Deep Research in NotebookLM. Mit Deep Research durchsucht das Tool laut Google Hunderte Webseiten und erstellt daraus einen strukturierten Bericht mit kommentierten Quellen. Nutzer aktivieren die Funktion über das Quellenfeld, indem sie „Web“ auswählen und dann zwischen „Deep Research“ für ausführliche Analysen oder „Fast Research“ für schnelle Suchen wählen. Deep Research kann sehr nützlich sein, macht jedoch wie andere LLM-basierte Systeme auch Fehler.
Zusätzlich unterstützt NotebookLM jetzt weitere Dateiformate. Laut Google lassen sich Google Sheets, Drive-Links, PDFs aus Drive, Word-Dokumente und Bilder hochladen. Das System extrahiert Informationen aus Bildern und kann sie beispielsweise chatbar machen. Außerdem rollt Google eine Chat-Verlaufsfunktion aus. Nutzer können Gespräche beenden und später fortsetzen. Der Verlauf kann jederzeit gelöscht werden.
Zuvor stellte Google stilistische Anpassungen für Audio- und Videoformate in NotebookLM vor. Das ermöglicht mutmaßliche Urheberrechtsverstöße, wie sie auch bei anderen generativen KI-Werkzeugen auftreten.