Anzeige
Skip to content
Read full article about: Australische Finanzaufsicht warnt Banken vor übermäßigem KI-Einsatz bei Verdachtsmeldungen

Die australische Finanzaufsicht Austrac warnt Banken vor dem übermäßigen Einsatz von KI bei der Erstellung von Verdachtsmeldungen. Laut Branchenquellen hätten Austrac-Vertreter in den vergangenen Wochen einigen Banken eindringlich nahegelegt, beim Einsatz von KI bewusster vorzugehen. Eine Großbank sei in einem privaten Treffen gerügt worden.

Banken nutzen seit Jahren maschinelles Lernen zur Erkennung verdächtiger Transaktionen. Doch der verstärkte Einsatz moderner großer Sprachmodelle kam erst in den vergangenen zwei Jahren auf, da Banken in der Technologie auch eine Möglichkeit zur Kostensenkung sehen.

Die stellvertretende Austrac-Chefin Katie Miller sagte, die Behörde wolle keine Flut von "minderwertigen" computergenerierten Berichten, die zwar datenreich, aber nachrichtendienstlich wertlos seien. Banken könnten massenhaft Berichte einreichen, nur um Strafen zu vermeiden. Sollten sie KI nur zur Steigerung der Berichtsmenge nutzen, müsse Austrac das bewerten. Je mehr Daten vorhanden seien, desto größer sei das Problem des "Rauschens". Daher sollten Banken eher auf höhere Qualität bei geringeren Mengen setzen.

Read full article about: Salesforce-Manager: Vertrauen in große Sprachmodelle ist im letzten Jahr gesunken

Laut Führungskräften von Salesforce ist das Vertrauen in große Sprachmodelle (LLMs) in diesem Jahr gesunken. Das Unternehmen setzt bei seinem KI-Produkt Agentforce nun verstärkt auf einfache, regelbasierte Automatisierung und reduziert in manchen Anwendungsfällen die Abhängigkeit von generativer KI, berichtet The Information.

"Wir alle hatten vor einem Jahr mehr Vertrauen in das LLM", sagte Sanjna Parulekar, Senior Vice President für Produktmarketing bei Salesforce. Probleme seien die inhärente Zufälligkeit und Unvorhersehbarkeit von LLMs sowie deren Tendenz, bei vielen Anweisungen einzelne zu ignorieren. Ein weiteres Problem ist der sogenannte "Drift": KI-Agenten verlieren ihre ursprünglichen Ziele aus den Augen, sobald Nutzer ablenkende Fragen stellen – ein auch durch Salesforce-Studien belegtes Phänomen.

Ein Salesforce-Sprecher widersprach der Darstellung, dass das Unternehmen bei LLMs zurückrudere. Man gehe lediglich bewusster damit um, wo und wie man Sprachmodelle einsetze. Salesforce zufolge ist das KI-Angebot Agentforce aktuell auf Kurs, jährlich über 500 Millionen Dollar umzusetzen. Die Software ermöglicht es, deterministische Regeln um die Fähigkeiten von Sprachmodellen zu bauen.

Read full article about: Wir danken fürs Lesen und wünschen entspannte Feiertage

Hallo zusammen,

das Jahr 2025 neigt sich dem Ende zu – Zeit, Danke zu sagen!

In diesem Jahr haben wir mehr als 1.700 Artikel und 50 Newsletter veröffentlicht. Wir hoffen, dass einige davon für euch nützlich waren.

Nach unserem Relaunch schauen wir gespannt auf 2026. Eines ist klar: Langsamer wird’s nicht, aber wir fühlen uns gut aufgestellt, die Nachrichtenflut für euch zu sortieren und tiefer reinzugehen, wo es sich lohnt.

Ihr habt Ideen oder Feedback? Wir freuen uns auf eure Nachricht: hello@the-decoder.com

Ihr möchtet unsere Arbeit unterstützen? Ein Abo hilft uns sehr.

Vielen Dank fürs Lesen – und schöne Feiertage! 🎄

Matthias, Max und Jonathan

Nano Banana Pro prompted by THE DECODER
Read full article about: Bericht: OpenAI könnte gesponserte Inhalte direkt in ChatGPT-Antworten einbauen

OpenAIs Werbepläne in ChatGPT werden konkreter. Mitarbeiter diskutieren laut The Information verschiedene Werbeformate für den Chatbot. Eine Option: KI-Modelle könnten gesponserte Inhalte bevorzugt in Antworten einbauen. Bei einer Frage nach Mascara-Empfehlungen würde dann etwa eine Sephora-Werbung erscheinen. Interne Entwürfe zeigen zudem Werbung in einer Seitenleiste neben dem Antwortfenster.

Eine weitere Variante sieht vor, Anzeigen erst im zweiten Schritt zu zeigen, wenn Nutzer mehr Informationen wünschen. Fragt jemand nach einer Barcelona-Reise und klickt auf einen Vorschlag wie die Sagrada Família, könnten gesponserte Links zu Tourangeboten erscheinen. Ein Sprecher bestätigte, dass das Unternehmen prüft, wie Werbung im Produkt aussehen könnte, ohne das Vertrauen der Nutzer zu enttäuschen.

OpenAI-CEO Sam Altman bezeichnete in der Vergangenheit durch Werbung beeinflusste KI-Antworten als dystopische Zukunft, insbesondere wenn diese Empfehlungen sich aus bisherigen, privaten Gesprächen mit dem Chatbot ergeben. Genau daran soll OpenAI angeblich arbeiten: Werbung auf Basis der ChatGPT-Memory-Funktion, die persönliche Gesprächsverläufe für zielgerichtete Anzeigen nutzen könnte.

Read full article about: Qwen verbessert Bildbearbeitungsmodell für höhere Konsistenz bei Personen

Qwen verbessert sein kürzlich veröffentlichtes Bildbearbeitungsmodell. Das chinesische KI-Unternehmen hat Qwen-Image-Edit-2511 auf Hugging Face veröffentlicht, eine erweiterte Version des Vorgängers Qwen-Image-Edit-2509. Die wichtigste Neuerung ist eine stark verbesserte Konsistenz bei der Bearbeitung von Personen. Das Modell kann laut Qwen nun kreative Änderungen an Porträts vornehmen und dabei die Identität der abgebildeten Person besser bewahren. Auch Gruppenfotos mit mehreren Personen lassen sich jetzt besser bearbeiten.

Qwen

Weitere Verbesserungen betreffen die Lichtsteuerung, neue Blickwinkel, industrielles Produktdesign und geometrische Berechnungen. Qwen hat zudem beliebte LoRAs (kleine Zusatzmodelle) aus der Community direkt ins Basismodell eingebaut. Das Modell steht unter der Apache-2.0-Lizenz zur Verfügung. Eine Demo ist auf Hugging Face abrufbar, das Modell kann auch über Qwen Chat kostenlos getestet werden.

Read full article about: GitHub-Repository bietet mehr als 50 anpassbare Claude Skills

Auf GitHub gibt’s eine umfassende Sammlung von "Claude Skills". Diese Skills sind anpassbare Workflows, die Anthropics KI-Assistenten Claude beibringen, bestimmte Aufgaben wiederholt und standardisiert auszuführen. Die Sammlung umfasst mehr als 50 Skills in neun Kategorien: Dokumentenverarbeitung (Word, PDF, PowerPoint), Entwicklungstools (Playwright, AWS, Git), Datenanalyse, Business und Marketing, Kommunikation, kreative Medien, Produktivität, Projektmanagement sowie Sicherheit.

Nutzer können Skills in Claude.ai über die Einstellungen hinzufügen, in Claude Code im Konfigurationsordner ablegen oder per API einbinden. Jeder Skill besteht aus einem Ordner mit einer SKILL.md-Datei. Das Repository steht unter Apache-2.0-Lizenz und nimmt Beiträge entgegen.

Da Skills letztlich nur eine Sammlung von Prompts in einem Ordner sind, gilt: Wer viel aus KI herausholen will, muss die Prompts individualisieren. Inspiration lässt sich dennoch holen. Da Skills sich als Standard zu etablieren scheinen, lohnt es sich auch über Claude.ai hinaus, sich mit dem Thema zu befassen.

Read full article about: KI-Coding-Modell GLM-4.7 merkt sich Gedankengänge über lange Dialoge

Zhipu AI stellt mit GLM-4.7 ein auf autonomes Programmieren spezialisiertes KI-Modell vor, das dank "Preserved Thinking" Gedankengänge über lange Dialoge speichert. Diese neue Funktion ergänzt das seit GLM-4.5 bekannte "Interleaved Thinking", bei dem die KI vor Aktionen pausiert. Im Vergleich zum Vorgänger GLM-4.6 erzielt das Modell deutliche Leistungssteigerungen, etwa 73,8 Prozent im SWE-bench Verified. Neben reinem Code generiert GLM-4.7 laut Anbieter auch ästhetisch ansprechendere Webseiten und Präsentationen ("Vibe Coding"). Im Blogbeitrag stellt Zhipu einige Webseiten vor, die aus einem einzigen Prompt entstanden sein sollen.

In mehreren Benchmarks wird das Kopf-an-Kopf-Rennen mit kommerziellen, westlichen Anbietern wie OpenAI und Anthropic deutlich.

Das Modell ist über die Z.ai-Plattform, OpenRouter sowie als lokaler Download auf Hugging Face verfügbar und lässt sich direkt in Coding-Tools wie Claude Code integrieren. Z.ai wirbt dabei mit einem Kampfpreis von einem Siebtel der Kosten vergleichbarer Modelle.

Read full article about: Stimmen-Klonen aus drei Sekunden Audio: Qwen veröffentlicht neue TTS-Modelle

Das Qwen-Team von Alibaba Cloud hat zwei neue KI-Modelle veröffentlicht, die Stimmen per Textbefehl entwerfen oder klonen. Das Modell Qwen3-TTS-VD-Flash erlaubt es Nutzern, Stimmen durch detaillierte Beschreibungen zu generieren und dabei Eigenschaften wie Emotionen und Sprechtempo exakt festzulegen, etwa: "Male, middle-aged, booming baritone - hyper-energetic infomercial voice with rapid-fire delivery and exaggerated pitch rises, dripping with salesmanship". Es soll laut Hersteller in Tests besser abschneiden als OpenAIs im Frühjahr eingeführte API für GPT-4o-mini-tts.

Ergänzend kopiert das Modell Qwen3-TTS-VC-Flash Stimmen anhand von nur drei Sekunden Audio-Material und gibt diese in zehn Sprachen, darunter Deutsch, wieder. Qwen gibt an, dass die Fehlerrate dabei geringer ist als bei Elevenlabs oder MiniMax. Die KI verarbeitet auch komplexe Texte und kann sogar Tierstimmen imitieren oder Stimmen aus Aufnahmen extrahieren. Beide Modelle sind über die API von Alibaba Cloud verfügbar. Demos stehen sowohl für das Design- als auch das Klon-Modell auf Hugging Face bereit.

Read full article about: Google sichert sich weitere Energiereserven für den Ausbau seiner KI-Kapazitäten

Google baut seine KI-Kapazitäten weiter aus. Der Mutterkonzern Alphabet kauft den Entwickler für saubere Energie Intersect für 4,75 Milliarden Dollar in bar, plus übernommene Schulden. Der Grund: Große Tech-Unternehmen investieren massiv in Energiefirmen, da die US-Stromnetze mit dem steigenden Strombedarf für künstliche Intelligenz kaum Schritt halten können.

Alphabet erwirbt Intersects Energie- und Rechenzentrumsprojekte, die sich in Entwicklung oder im Bau befinden. Das Unternehmen verfügt über Anlagen im Wert von 15 Milliarden Dollar. Bis 2028 sollen Projekte mit etwa 10,8 Gigawatt Leistung online sein, mehr als das Zwanzigfache der Stromproduktion des Hoover-Staudamms laut Reuters. Intersects Betrieb bleibt von Alphabet getrennt. Bestehende Anlagen in Texas und Kalifornien gehören nicht zur Übernahme.

Der Druck auf die Energieversorgung ist enorm: Google will laut eigenen Angaben seine KI-Kapazität alle sechs Monate verdoppeln und innerhalb von vier bis fünf Jahren eine tausendfache Leistungssteigerung erreichen. Google investiert dafür auch in moderne Reaktortechnologie.

Read full article about: OpenAI steigert Effizienz bei Serverkosten deutlich und die Marge freut's

OpenAI hat angeblich die Wirtschaftlichkeit seiner KI-Dienste stark verbessert. Die sogenannte Compute-Marge – der Anteil der Einnahmen nach Abzug der Serverkosten für zahlende Nutzer – stieg von etwa 35 Prozent im Januar 2024 auf rund 70 Prozent im Oktober 2025, berichtet The Information unter Berufung auf interne Finanzdaten. Anthropic soll sich bis Ende des Jahres auf 53 Prozent verbessern.

Die Effizienzsteigerung gelang OpenAI durch sinkende Mietkosten für Rechenleistung, optimierte Modelle und ein teureres Abo-Angebot. Dennoch ist der Weg zur Profitabilität noch weit, insbesondere da OpenAI-CEO Sam Altman weiter große Investitionen in noch mehr Rechenleistung plant und weitere Zirkelgeschäfte antreibt.

OpenAI arbeitet derzeit an einer Finanzierungsrunde von bis zu 100 Milliarden Dollar.