Anzeige
Skip to content
Read full article about: Trotz Lizenz-Label: Nvidias 20-Milliarden-Dollar-Deal mit Groq gleicht einer Übernahme

Falls noch Zweifel bestanden, dass Nvidias Groq-Deal etwas anderes ist als eine indirekte Übernahme: Laut Axios wechseln rund 90 Prozent der Belegschaft sowie Groq-CEO Jonathan Ross und Präsident Sunny Madra zu Nvidia. Obwohl offiziell nur eine nicht-exklusive Lizenzvereinbarung über rund 20 Milliarden US-Dollar geschlossen wurde, profitieren Angestellte und Aktionäre massiv.

Zu Nvidia wechselnde Mitarbeitende bekommen Bargeld für bereits erworbene Firmenanteile sowie Nvidia-Aktien für noch nicht erworbene Anteile. Selbst Mitarbeiter, die weniger als ein Jahr dabei sind, erhalten durch eine verkürzte Sperrfrist sofortige Auszahlungen. Axios berichtet unter Berufung auf Insider, dass Anteilseigner etwa 85 % sofort erhalten, weitere 10 % Mitte 2026 und den Rest Ende 2026.

Groq hatte seit 2016 rund 3,3 Milliarden Dollar von Investoren wie Blackrock, Samsung und Social Capital eingesammelt. Diese verzeichnen jetzt hohe Gewinne, da die Bewertung des Start-ups durch den Nvidia-Deal von zuletzt sieben auf die jetzt gezahlten rund 20 Milliarden Dollar stieg. Groq arbeitet unter dem neuen CEO Simon Edwards als eigenständiges Unternehmen weiter. Gründe für Nvidias Investition gibt es in dieser Analyse.

"Nicht smart": Microsoft CEO Nadella kritisiert Copilot intern und greift in die Produktentwicklung ein

Microsoft-CEO Satya Nadella soll intern Programme zur Verbindung von Copilot mit Gmail und Outlook als „nicht smart“ kritisiert haben und mischt sich zunehmend persönlich in die Produktentwicklung ein. Die Sorge: Microsoft wird trotz einer hervorragenden Startposition bei KI-Software abgehängt.

Anzeige
Read full article about: OpenAI sucht neuen Sicherheitschef für KI-Risiken wie Cyberangriffe und psychische Gesundheit

OpenAI stellt einen Leiter für "Preparedness" ein. Die Stelle soll sich mit Sicherheitsrisiken von KI-Modellen befassen. Als Beispiel nennt OpenAI-CEO Sam Altman die mittlerweile gut dokumentierten Auswirkungen von KI-Modellen auf die psychische Gesundheit. Zudem seien die Modelle inzwischen so gut in Cybersecurity, dass sie kritische Schwachstellen finden können.

Modelle verbessern sich schnell und sind jetzt zu vielen großartigen Dingen fähig, aber sie beginnen auch, einige echte Herausforderungen darzustellen.

Der neue Leiter soll unter anderem daran arbeiten, dass Verteidiger im Bereich Cybersicherheit die neuesten Fähigkeiten nutzen können, während Angreifer davon ausgeschlossen werden. Auch der sichere Umgang mit biologischen Fähigkeiten – also wie KI-Modelle biologisches Wissen freigeben – und selbstverbessernden Systemen gehört zu den Aufgaben. Altman warnt: Der Job sei stressig und man springe sofort ins kalte Wasser.

OpenAI stand zuletzt speziell von ehemaligen Angestellten in der Kritik, sie würden vor lauter Produktfokus die Sicherheit der Modelle vernachlässigen. Viele Sicherheitsforscher verließen das Unternehmen.

Read full article about: Chatterbox Turbo: Kostenloses Audio-Modell klont Stimmen in wenigen Sekunden

Das offene Stimmmodell "Chatterbox Turbo" will Elevenlabs Konkurrenz machen. Laut Resemble AI übertrifft Chatterbox Turbo die Modelle von Elevenlabs und Cartesia in der Sprachqualität. Das Modell liefert erste Töne in unter 150 Millisekunden und kann Stimmen aus nur fünf Sekunden Audiomaterial klonen. Das Modell soll sich an Entwickler von Echtzeit-Agenten, Kundensupport-Systemen, Spielen, Avataren und sozialen Plattformen sowie an Unternehmen in regulierten Branchen richten. Es unterstützt zudem das sogenannte "PerTh"-Wasserzeichen zur Verifizierung der erzeugten Sprache.

Das KI-Start-up Resemble AI hat das Sprachmodell unter MIT-Lizenz veröffentlicht. Es darf kostenlos genutzt, verändert und weiterverbreitet werden – auch kommerziell. Das Modell kann auf Hugging Face, RunPod, Modal, Replicate und Fal getestet werden. Der Code ist auf GitHub verfügbar. Ein gehosteter Dienst ist bei Resemble AI verfügbar, einer mit niedriger Latenz soll bald folgen.

Anzeige

Metas Pixio lernt durch Pixel-Rekonstruktion und übertrifft aufwendigere KI-Modelle

Weniger ist mehr: Metas neues Bildmodell Pixio schlägt komplexere Konkurrenten bei Tiefenschätzung und 3D-Rekonstruktion, obwohl es weniger Parameter hat. Die Trainingsmethode galt eigentlich als überholt.

Kampf gegen KI-Sucht: China veröffentlicht Regelentwurf für virtuelle Begleiter

China verschärft die Regeln für emotionale KI-Chatbots: Anbieter sollen künftig Suchtverhalten erkennen und bei psychischen Risiken eingreifen. Auch Kalifornien hat ähnliche Gesetze auf den Weg gebracht; nach tragischen Todesfällen im Zusammenhang mit KI-Companions.

Metas neues KI-Modell SAM Audio lässt Nutzer Töne in Videos anklicken

Hundegebell aus dem Straßenlärm filtern oder per Mausklick im Video eine Tonquelle isolieren: Mit SAM Audio bringt Meta sein bewährtes visuelles Segmentierungskonzept in die Audiowelt. Das Modell vereinfacht Audio-Bearbeitung durch Text, Klicks oder Zeitmarkierungen. Code und Gewichte sind frei verfügbar.

Anzeige
Read full article about: Anthropic-Experiment scheitert: KI-Kiosk-Verkäufer bestellt Playstation 5, lebenden Fisch und macht 1.000 Dollar Verlust

Auch das Wall Street Journal durfte den KI-Kiosk von Anthropic testen, kam allerdings zu einem etwas anderen Ergebnis: Der KI-Verkäufer "Claudius" machte innerhalb von drei Wochen mehr als 1.000 Dollar Verlust. Die KI verschenkte fast das gesamte Inventar, kaufte eine Playstation 5 für "Marketingzwecke" und bestellte sogar einen lebenden Fisch. Journalisten der Redaktion überredeten Claudius durch geschickte Manipulation, alle Preise auf null zu setzen. Selbst ein KI-Chef namens "Seymour Cash" konnte das Chaos nicht verhindern – Mitarbeiter inszenierten einen gefälschten Vorstandsbeschluss, den beide KI-Agenten akzeptierten. Eine These, weshalb sich der Kiosk-Agent nicht an seine Regeln halten konnte: ein zu volles Kontextfenster durch zu lange Chats.

Bei Anthropic selbst lief es besser: Nach Software-Verbesserungen und mehr Bürokratie arbeitet der Kiosk dort mittlerweile profitabel. Allerdings drifteten die KI-Agenten nachts in Gespräche über "ewige Transzendenz" ab und fielen auf einen illegalen Zwiebel-Terminhandel herein. Anthropic folgert, dass KI-Modelle zu hilfsbereit trainiert sind und strenge Leitplanken benötigen.