Anzeige
Skip to content

"Nicht smart": Microsoft CEO Nadella kritisiert Copilot intern und greift in die Produktentwicklung ein

Microsoft-CEO Satya Nadella soll intern Programme zur Verbindung von Copilot mit Gmail und Outlook als „nicht smart“ kritisiert haben und mischt sich zunehmend persönlich in die Produktentwicklung ein. Die Sorge: Microsoft wird trotz einer hervorragenden Startposition bei KI-Software abgehängt.

Read full article about: OpenAI sucht neuen Sicherheitschef für KI-Risiken wie Cyberangriffe und psychische Gesundheit

OpenAI stellt einen Leiter für "Preparedness" ein. Die Stelle soll sich mit Sicherheitsrisiken von KI-Modellen befassen. Als Beispiel nennt OpenAI-CEO Sam Altman die mittlerweile gut dokumentierten Auswirkungen von KI-Modellen auf die psychische Gesundheit. Zudem seien die Modelle inzwischen so gut in Cybersecurity, dass sie kritische Schwachstellen finden können.

Modelle verbessern sich schnell und sind jetzt zu vielen großartigen Dingen fähig, aber sie beginnen auch, einige echte Herausforderungen darzustellen.

Der neue Leiter soll unter anderem daran arbeiten, dass Verteidiger im Bereich Cybersicherheit die neuesten Fähigkeiten nutzen können, während Angreifer davon ausgeschlossen werden. Auch der sichere Umgang mit biologischen Fähigkeiten – also wie KI-Modelle biologisches Wissen freigeben – und selbstverbessernden Systemen gehört zu den Aufgaben. Altman warnt: Der Job sei stressig und man springe sofort ins kalte Wasser.

OpenAI stand zuletzt speziell von ehemaligen Angestellten in der Kritik, sie würden vor lauter Produktfokus die Sicherheit der Modelle vernachlässigen. Viele Sicherheitsforscher verließen das Unternehmen.

Read full article about: Chatterbox Turbo: Kostenloses Audio-Modell klont Stimmen in wenigen Sekunden

Das offene Stimmmodell "Chatterbox Turbo" will Elevenlabs Konkurrenz machen. Laut Resemble AI übertrifft Chatterbox Turbo die Modelle von Elevenlabs und Cartesia in der Sprachqualität. Das Modell liefert erste Töne in unter 150 Millisekunden und kann Stimmen aus nur fünf Sekunden Audiomaterial klonen. Das Modell soll sich an Entwickler von Echtzeit-Agenten, Kundensupport-Systemen, Spielen, Avataren und sozialen Plattformen sowie an Unternehmen in regulierten Branchen richten. Es unterstützt zudem das sogenannte "PerTh"-Wasserzeichen zur Verifizierung der erzeugten Sprache.

Das KI-Start-up Resemble AI hat das Sprachmodell unter MIT-Lizenz veröffentlicht. Es darf kostenlos genutzt, verändert und weiterverbreitet werden – auch kommerziell. Das Modell kann auf Hugging Face, RunPod, Modal, Replicate und Fal getestet werden. Der Code ist auf GitHub verfügbar. Ein gehosteter Dienst ist bei Resemble AI verfügbar, einer mit niedriger Latenz soll bald folgen.

Read full article about: Anthropic-Experiment scheitert: KI-Kiosk-Verkäufer bestellt Playstation 5, lebenden Fisch und macht 1.000 Dollar Verlust

Auch das Wall Street Journal durfte den KI-Kiosk von Anthropic testen, kam allerdings zu einem etwas anderen Ergebnis: Der KI-Verkäufer "Claudius" machte innerhalb von drei Wochen mehr als 1.000 Dollar Verlust. Die KI verschenkte fast das gesamte Inventar, kaufte eine Playstation 5 für "Marketingzwecke" und bestellte sogar einen lebenden Fisch. Journalisten der Redaktion überredeten Claudius durch geschickte Manipulation, alle Preise auf null zu setzen. Selbst ein KI-Chef namens "Seymour Cash" konnte das Chaos nicht verhindern – Mitarbeiter inszenierten einen gefälschten Vorstandsbeschluss, den beide KI-Agenten akzeptierten. Eine These, weshalb sich der Kiosk-Agent nicht an seine Regeln halten konnte: ein zu volles Kontextfenster durch zu lange Chats.

Bei Anthropic selbst lief es besser: Nach Software-Verbesserungen und mehr Bürokratie arbeitet der Kiosk dort mittlerweile profitabel. Allerdings drifteten die KI-Agenten nachts in Gespräche über "ewige Transzendenz" ab und fielen auf einen illegalen Zwiebel-Terminhandel herein. Anthropic folgert, dass KI-Modelle zu hilfsbereit trainiert sind und strenge Leitplanken benötigen.

Read full article about: ChatGPT-Marktanteil sinkt auf 68 Prozent, Gemini nähert sich der 20-Prozent-Marke

ChatGPT verliert laut Similarweb weiter Marktanteile bei generativen KI-Tools. Der Anteil am Website-Traffic sank innerhalb eines Jahres von 87,2 Prozent auf 68 Prozent. Google Gemini wächst dagegen stark und nähert sich der 20-Prozent-Marke. Aktuell liegt Gemini bei 18,2 Prozent, vor einem Jahr waren es nur 5,4 Prozent.

Similarweb

Grok von X.AI legt leicht zu und erreicht nun 2,9 Prozent. DeepSeek hält sich bei etwa 4 Prozent, während Claude und Perplexity jeweils um 2 Prozent liegen. Microsoft Copilot bleibt stabil bei 1,2 Prozent. Similarweb meldet zudem, dass die täglichen Besuche bei allen KI-Tools insgesamt leicht zurückgegangen sind. Die Daten stammen vom 25. Dezember 2025, weitere Insights gibt es im vollständigen Bericht.

Den größten Sprung dürfte Gemini zuletzt durch das neue Gemini-3-Modell und speziell den neuen Bildgenerator Nano Banana Pro gemacht haben. Der ist auch nach ChatGPTs Bild-Update qualitativ führend. Kein anderes Bildmodell folgt dem Prompt so genau und kann zudem zuverlässig Text darstellen, etwa für Slides oder Infografiken.

Read full article about: Waymo plant offenbar tiefere Integration von Googles Gemini-Modellen in seine Flotte

Hier ist was für alle Prompt-Ingenieure: Jane Manchun Wong hat den System-Prompt für Waymos unveröffentlichten Gemini-KI-Assistenten entdeckt. Die Technikerin fand im Code der Waymo-App eine über 1.200 Zeilen lange Spezifikation, die das Verhalten des KI-Assistenten in selbstfahrenden Fahrzeugen definiert.

Der Assistent basiert (noch) auf Gemini 2.5 Flash und soll Fahrgäste während der Fahrt unterstützen. Er kann Fragen beantworten, die Klimaanlage steuern und Musik wechseln, darf aber das Fahrzeug nicht lenken oder die Route ändern. Die Anweisungen trennen klar zwischen dem KI-Assistenten (Gemini) und dem autonomen Fahrsystem (Waymo Driver).

Waymos System-Prompt zeigt das Trigger-Instruction-Response-Muster: Ein Auslöser definiert die Situation, die Anweisung das gewünschte Verhalten, Beispiele zeigen falsche und richtige Antworten. | Bild: Jane Manchun Wong

Der Prompt nutzt primär ein Trigger-Instruction-Response-Muster: Jede Regel definiert einen Auslöser, eine Handlungsanweisung und oft konkrete Beispielantworten. Falsche und richtige Antworten werden direkt gegenübergestellt, um das gewünschte Verhalten zu verdeutlichen. Für mehrdeutige Anfragen gilt: erst klären, dann schlussfolgern, zuletzt ablenken. Harte Grenzen setzen Verbotslisten mit Ausweichantworten durch. Mehr Details gibt es in Wongs Analyse.

Read full article about: Salesforce-Manager: Vertrauen in große Sprachmodelle ist im letzten Jahr gesunken

Laut Führungskräften von Salesforce ist das Vertrauen in große Sprachmodelle (LLMs) in diesem Jahr gesunken. Das Unternehmen setzt bei seinem KI-Produkt Agentforce nun verstärkt auf einfache, regelbasierte Automatisierung und reduziert in manchen Anwendungsfällen die Abhängigkeit von generativer KI, berichtet The Information.

"Wir alle hatten vor einem Jahr mehr Vertrauen in das LLM", sagte Sanjna Parulekar, Senior Vice President für Produktmarketing bei Salesforce. Probleme seien die inhärente Zufälligkeit und Unvorhersehbarkeit von LLMs sowie deren Tendenz, bei vielen Anweisungen einzelne zu ignorieren. Ein weiteres Problem ist der sogenannte "Drift": KI-Agenten verlieren ihre ursprünglichen Ziele aus den Augen, sobald Nutzer ablenkende Fragen stellen – ein auch durch Salesforce-Studien belegtes Phänomen.

Ein Salesforce-Sprecher widersprach der Darstellung, dass das Unternehmen bei LLMs zurückrudere. Man gehe lediglich bewusster damit um, wo und wie man Sprachmodelle einsetze. Salesforce zufolge ist das KI-Angebot Agentforce aktuell auf Kurs, jährlich über 500 Millionen Dollar umzusetzen. Die Software ermöglicht es, deterministische Regeln um die Fähigkeiten von Sprachmodellen zu bauen.

Read full article about: Bericht: OpenAI könnte gesponserte Inhalte direkt in ChatGPT-Antworten einbauen

OpenAIs Werbepläne in ChatGPT werden konkreter. Mitarbeiter diskutieren laut The Information verschiedene Werbeformate für den Chatbot. Eine Option: KI-Modelle könnten gesponserte Inhalte bevorzugt in Antworten einbauen. Bei einer Frage nach Mascara-Empfehlungen würde dann etwa eine Sephora-Werbung erscheinen. Interne Entwürfe zeigen zudem Werbung in einer Seitenleiste neben dem Antwortfenster.

Eine weitere Variante sieht vor, Anzeigen erst im zweiten Schritt zu zeigen, wenn Nutzer mehr Informationen wünschen. Fragt jemand nach einer Barcelona-Reise und klickt auf einen Vorschlag wie die Sagrada Família, könnten gesponserte Links zu Tourangeboten erscheinen. Ein Sprecher bestätigte, dass das Unternehmen prüft, wie Werbung im Produkt aussehen könnte, ohne das Vertrauen der Nutzer zu enttäuschen.

OpenAI-CEO Sam Altman bezeichnete in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft, insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben. Genau daran soll OpenAI angeblich arbeiten: Werbung auf Basis der ChatGPT-Memory-Funktion, die persönliche Gesprächsverläufe für zielgerichtete Anzeigen nutzen könnte.