Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Read full article about: "Ultra Deep Research": Sakana AI will wochenlange Strategieanalysen automatisieren

Das japanische KI-Start-up Sakana AI hat "Ultra Deep Research" entwickelt. Das Programm namens "Sakana Marlin" ist das erste Produkt des Unternehmens für Geschäftskunden. Laut Sakana AI arbeitet das System autonom: Nach der Eingabe eines Themas recherchiert es bis zu acht Stunden selbstständig. Anschließend erstellt es Berichte und Präsentationen rund um das Thema.

Eine Übersichtsansicht eines von der KI generierten Beispiel-Dokuments. Zu sehen sind mehrere hochformatige Textseiten eines Berichts sowie darunterliegende querformatige Präsentationsfolien in japanischer Sprache. Auf dem Deckblatt sind das Logo von Sakana AI, der Name „Sakana Marlin“ sowie das Wasserzeichen „Sample output“ zu erkennen.
Ein Beispiel-Output des KI-Assistenten "Sakana Marlin" mit "Ultra Deep Research": Zu einem vorgegebenen Thema (hier: KI-Trends im Finanzsektor) erstellt das Tool nach seiner autonomen Recherche selbstständig umfangreiche Textberichte sowie die passenden Präsentationsfolien. | Bild: Sakana AI

Laut Sakana AI soll das Tool professionelle Strategieanalysen übernehmen können, für die Teams sonst mehrere Wochen benötigen. Die Technik basiert auf Sakana AIs "AI Scientist", der Widersprüche auflösen soll, kombiniert mit der zuvor vorgestellten Methode "AB-MCTS" für strategische Suche. Im Prozess kommen mehrere KI-Modelle zum Einsatz und längeres Nachdenken soll bessere Ergebnisse liefern.

Sakana AI sucht derzeit Betatester etwa aus den Bereichen Finanzen, Forschung und Business-Beratung. Die Testphase ist kostenlos, erfordert aber eine Anmeldung hier (Formular in japanischer Sprache). Die Achillesferse solcher automatisierten Reports sind schwer zu findende KI-Fehler; hierzu äußert sich das Start-up nicht.

Read full article about: Microsoft zeigt neues Sprache-zu-Text-Modell MAI-Transcribe-1

Microsoft hat mit MAI-Transcribe-1 ein neues Sprache-zu-Text-Modell vorgestellt, das in 25 Sprachen arbeitet und auf dem FLEURS-Benchmark laut Microsoft die niedrigste Wortfehlerrate aller getesteten Modelle erreicht, vor Konkurrenten wie Scribe v2, Whisper-large-V3, GPT-Transcribe und Gemini 3.1 Flash-Lite. MAI-Transcribe-1 soll dabei auch schwierige Aufnahmebedingungen meistern und Hintergrundgeräusche, schlechte Audioqualität sowie überlappende Sprache zuverlässig verarbeiten.

MAI-Transcribe-1 (grün) erzielt in der FLEURS-Benchmark über 25 Sprachen hinweg fast durchgehend die niedrigste Wortfehlerrate und schlägt Scribe v2, Gemini 3.1 Flash-Lite, Whisper-large-v3 und GPT-Transcribe. | Bild: Microsoft

Microsoft setzt das Modell schrittweise in Copilot Voice und Microsoft Teams ein. Entwickler können es ab sofort als Public Preview über Microsoft Foundry und den Microsoft AI Playground nutzen. Das Modell ist 2,5-mal schneller als Microsofts bisheriges Azure-Fast-Angebot und kostet 0,36 Dollar pro Audiostunde. In Kombination mit MAI-Voice-1 und einem Sprachmodell lassen sich damit laut Microsoft Sprachagenten bauen.

Open-Source-Alternativen auf einem ähnlichen Niveau wurden kürzlich vom kanadischen Unternehmen Cohere und vom französischen Unternehmen Mistral vorgestellt.

Read full article about: Nach Claude-Code-Leak: Anthropics Quellcode wurde bereits mehr als 8000 Mal kopiert

Anthropics "Claude Code"-Code ist offenbar schon mehr als 8000 Mal auf Github aufgetaucht. Das Unternehmen hat nach dem versehentlichen Leak des Quellcodes seines beliebten KI-Coding-Tools mehr als 8000 Kopien und Adaptionen per Urheberrechtsantrag von GitHub entfernen lassen, berichtet das Wall Street Journal.

Ein Programmierer hat den Code bereits mit anderen KI-Tools in andere Programmiersprachen umgeschrieben, um ihn trotz der Löschanträge verfügbar zu halten. Im KI-Zeitalter scheint ein Code-Leak daher besonders verheerend. Bei der Masse an Replikationen ist ohnehin klar: Der Geist ist aus der Flasche.

Für Anthropic ist die schnelle Verbreitung ein konkretes Problem: Der Code enthält wertvolle Techniken, mit denen das Unternehmen seine KI-Modelle als Coding-Agenten steuert, etwa eine "Dreaming"-Funktion zur Aufgabenkonsolidierung und viele weitere. Konkurrenten haben nun eine detaillierte Vorlage, um Claude Codes Funktionen schneller nachzubauen. Das schwächt Anthropics Wettbewerbsvorteil in einem ohnehin hart umkämpften Markt. Investoren dürfte es verärgern, denn das Unternehmen plant mit einer Bewertung von 380 Milliarden Dollar einen Börsengang.

Read full article about: OpenAI macht Mega-Finanzierung und ChatGPT-Super-App offiziell

OpenAI hat seine Finanzierungsrunde offiziell gemacht. Das Unternehmen sammelte 122 Milliarden Dollar bei einer Bewertung von 852 Milliarden Dollar ein. Zu den wichtigsten Geldgebern gehören Amazon, Nvidia, SoftBank und Microsoft sowie a16z, BlackRock, Sequoia Capital und viele weitere. Privatanleger steuerten über Bankenkanäle drei Milliarden Dollar bei. Zusätzlich wurde eine Kreditlinie auf 4,7 Milliarden Dollar erweitert.

OpenAI gibt an, derzeit monatlich zwei Milliarden Dollar Umsatz zu erzielen und mehr als 900 Millionen wöchentlich aktive ChatGPT-Nutzer zu haben. Zudem macht OpenAI die ChatGPT-Super-App offiziell: Sie soll ChatGPT, den Programmieragenten Codex, Websuche und "weitere agentische Fähigkeiten" in einer "agentenzentrierten Gesamterfahrung" vereinen.

Die Mittel sollen primär in Recheninfrastruktur fließen. OpenAI dürfte sich künftig stärker auf das Unternehmensgeschäft konzentrieren, zuletzt wurde das Videomodell Sora eingestellt. Die Bekanntheit bei Verbrauchern soll als Einstieg für die Nutzung in Unternehmen dienen, so OpenAI. Das Unternehmensgeschäft macht laut eigenen Angaben derzeit mehr als 40 Prozent des Umsatzes aus.

Read full article about: Wegen teurer KI-Rechenzentren: Oracle streicht offenbar zehntausende Stellen

Oracle entlässt Tausende Angestellte, während das Unternehmen massiv in KI-Infrastruktur investiert. Das berichtete Business Insider, CNBC bestätigte die Kündigungen durch zwei anonyme Quellen. Oracle, das im Mai 2025 noch 162.000 Beschäftigte zählte, lehnte einen Kommentar ab.

Der Hintergrund sollen Oracles Investitionen in KI-Infrastruktur sein, für die das Unternehmen bereits Schulden aufnimmt, während der Cashflow sinkt. Im Januar kündigte Oracle an, 50 Milliarden Dollar aufzunehmen; der Aktienkurs ist seitdem im Sinkflug, verlor schon rund ein Viertel an Wert. Laut Analysten von TD Cowen könnte der Abbau von 20.000 bis 30.000 Stellen bis zu zehn Milliarden Dollar freien Cashflow bringen.

Co-CEO Clay Magouyrk verteidigt die Ausgaben: Die KI-Hardware-Nachfrage übersteige das Angebot. Er verweist auf zugesicherte Einnahmen von 553 Milliarden US-Dollar, unter anderem durch einen Großauftrag von OpenAI über 455 Milliarden US-Dollar. Das Problem: Niemand weiß, ob und wann OpenAI diese Bestellungen bezahlen kann, denn auch die ChatGPT-Firma verliert massiv Geld.

In der internen Kündigungs-E-Mail nennt Oracle den Betroffenen keine konkrete Begründung für den Rauswurf, sondern verweist lediglich auf "aktuelle Geschäftsanforderungen". Meta soll angeblich ebenfalls planen, die massiven KI-Infrastrukturinvestitionen durch umfassende Entlassungen zumindest teilweise zu kompensieren.

Read full article about: "Claude Code"-Leak: Anthropic veröffentlicht aus Versehen 500.000 Zeilen Code für KI-Tool

Anthropic hat versehentlich Teile des Quellcodes seiner Coding-Anwendung Claude Code veröffentlicht. Entwickler entdeckten am Dienstag mehr als 500.000 Zeilen Quellcode und über 1.000 zugehörige Dateien auf Anthropics NPM-Registry, einer Plattform für Entwickler-Dokumentation. Das Leak enthielt Details zur Funktionsweise des KI-Coding-Tools sowie Hinweise auf möglicherweise noch nicht veröffentlichte Modelle und Funktionen.

Laut Anthropic wurde das Leak "durch menschliches Versagen" verursacht. Es handle sich nicht um eine Sicherheitslücke, sensible Kundendaten seien nicht betroffen. Anthropic arbeite an Maßnahmen, um solche Vorfälle künftig zu verhindern.

Es ist bereits der zweite zumindest inhaltlich relevante Leak bei Anthropic innerhalb weniger Tage: Erst kürzlich wurden intern vorbereitete Blog-Posts öffentlich, die erste Details zum neuen KI-Modell Mythos enthielten.

Read full article about: Googles neues Videmodell Veo 3.1 Lite ist besonders günstig und schnell

Google Deepmind stellt mit Veo 3.1 Lite sein günstigstes Modell zur Videoerzeugung vor. Es kostet weniger als die Hälfte von Veo 3.1 Fast, arbeitet aber laut Google genauso schnell. Zu den qualitativen Unterschieden zwischen Veo 3.1, Fast und Lite macht Google keine Angabe.

Veo 3.1 Lite unterstützt Text-zu-Video und Bild-zu-Video, bietet 720p und 1080p Auflösung sowie Hoch- und Querformat. Videos lassen sich in Längen von 4, 6 oder 8 Sekunden erstellen. Die Preise beginnen bei 0,05 Dollar pro Sekunde für 720p. Ab dem 7. April senkt Google zudem die Preise für Veo 3.1 Fast.

Pricing (pro Sekunde in USD) Veo 3.1 Lite Veo 3.1 Fast Veo 3.1
720p $0.05 $0.15 ($0.10 ab 4/7) $0.40
1080p $0.08 $0.15 ($0.12 ab 4/7) $0.40
4K $0.35 ($0.30 ab 4/7) $0.60

Veo 3.1 Lite ist ab sofort über die Gemini-API und Google AI Studio verfügbar und Google stellt mehr Video-Neuigkeiten für Entwickler in Aussicht. Weitere Details finden sich in der Entwicklerdokumentation.

Googles Veo-Ankündigung folgt just auf OpenAIs Nachricht, dass das eigene Videmodell Sora eingestellt wird. Ernsthafte Konkurrenz bei Videmodellen hat Google daher derzeit nur aus China, hier insbesondere Alibabas Videmodell Seedance 2.0, das qualitativ noch eine Schippe drauflegt, aber Probleme mit dem Copyright hat.