Anzeige
Skip to content
Read full article about: Wegen KI-Betrug: Weltgrößte Buchhaltungsorganisation schafft Online-Prüfungen ab

Die weltweit größte Buchhaltungsorganisation ACCA (Association of Chartered Certified Accountants) beendet ab März 2026 die Möglichkeit, Prüfungen online abzulegen. Grund ist die zunehmende Nutzung von KI-Tools zum Schummeln. "Die Raffinesse der Betrugssysteme überholt die Schutzmaßnahmen", sagte ACCA-Chefin Helen Brand der Financial Times.

Die Organisation mit fast 260 000 Mitgliedern und mehr als 500 000 Studierenden habe intensiv gegen Betrug gearbeitet, doch "Menschen, die schlechte Dinge tun wollen, arbeiten wahrscheinlich schneller". Ein Student berichtete der FT, dass ein Freund Prüfungsfragen fotografiert und in einen KI-Chatbot eingegeben habe. Kürzlich zeigte eine Studie, dass aktuelle Reasoning-Modelle die anspruchsvolle CFA-Zertifizierung (Chartered Financial Analyst) bestehen können.

Online-Prüfungen wurden während der Corona-Pandemie eingeführt. Parallel überarbeitet die ACCA erstmals seit zehn Jahren ihre Qualifikation mit Fokus auf KI, Blockchain und Data Science. Das ICAEW, eine weitere Buchhaltungsorganisation, erlaubt weiterhin einige Online-Prüfungen, meldet aber ebenfalls steigende Betrugszahlen.

Read full article about: Creators Coalition on AI: Hollywood-Stars fordern klare Regeln für KI in der Unterhaltungsindustrie

Die "Creators Coalition on AI" (CCAI) ist eine neue branchenübergreifende Initiative von Filmschaffenden und Künstlern, die gemeinsame Standards für den Einsatz von KI in der Unterhaltungsindustrie fordert. Zu den Gründern gehören die Oscar-Gewinner Daniel Kwan und Jonathan Wang sowie Schauspieler Joseph Gordon-Levitt. Prominente Unterstützer sind unter anderem Natalie Portman, Cate Blanchett, Paul McCartney, Guillermo Del Toro und Mark Ruffalo.

Die Koalition lehnt KI nicht grundsätzlich ab, fordert aber klare Regeln. Vier Kernpunkte stehen im Mittelpunkt: Zustimmung und Vergütung für Trainingsdaten, Schutz von Arbeitsplätzen, Schutzmaßnahmen gegen Deepfakes und Missbrauch sowie der Erhalt menschlicher Kreativität im Schaffensprozess. Die CCAI will als zentrale Anlaufstelle für branchenweite Diskussionen dienen.

Read full article about: Trotz Lizenz-Label: Nvidias 20-Milliarden-Dollar-Deal mit Groq gleicht einer Übernahme

Falls noch Zweifel bestanden, dass Nvidias Groq-Deal etwas anderes ist als eine indirekte Übernahme: Laut Axios wechseln rund 90 Prozent der Belegschaft sowie Groq-CEO Jonathan Ross und Präsident Sunny Madra zu Nvidia. Obwohl offiziell nur eine nicht-exklusive Lizenzvereinbarung über rund 20 Milliarden US-Dollar geschlossen wurde, profitieren Angestellte und Aktionäre massiv.

Zu Nvidia wechselnde Mitarbeitende bekommen Bargeld für bereits erworbene Firmenanteile sowie Nvidia-Aktien für noch nicht erworbene Anteile. Selbst Mitarbeiter, die weniger als ein Jahr dabei sind, erhalten durch eine verkürzte Sperrfrist sofortige Auszahlungen. Axios berichtet unter Berufung auf Insider, dass Anteilseigner etwa 85 % sofort erhalten, weitere 10 % Mitte 2026 und den Rest Ende 2026.

Groq hatte seit 2016 rund 3,3 Milliarden Dollar von Investoren wie Blackrock, Samsung und Social Capital eingesammelt. Diese verzeichnen jetzt hohe Gewinne, da die Bewertung des Start-ups durch den Nvidia-Deal von zuletzt sieben auf die jetzt gezahlten rund 20 Milliarden Dollar stieg. Groq arbeitet unter dem neuen CEO Simon Edwards als eigenständiges Unternehmen weiter. Gründe für Nvidias Investition gibt es in dieser Analyse.

Read full article about: OpenAI sucht neuen Sicherheitschef für KI-Risiken wie Cyberangriffe und psychische Gesundheit

OpenAI stellt einen Leiter für "Preparedness" ein. Die Stelle soll sich mit Sicherheitsrisiken von KI-Modellen befassen. Als Beispiel nennt OpenAI-CEO Sam Altman die mittlerweile gut dokumentierten Auswirkungen von KI-Modellen auf die psychische Gesundheit. Zudem seien die Modelle inzwischen so gut in Cybersecurity, dass sie kritische Schwachstellen finden können.

Modelle verbessern sich schnell und sind jetzt zu vielen großartigen Dingen fähig, aber sie beginnen auch, einige echte Herausforderungen darzustellen.

Der neue Leiter soll unter anderem daran arbeiten, dass Verteidiger im Bereich Cybersicherheit die neuesten Fähigkeiten nutzen können, während Angreifer davon ausgeschlossen werden. Auch der sichere Umgang mit biologischen Fähigkeiten – also wie KI-Modelle biologisches Wissen freigeben – und selbstverbessernden Systemen gehört zu den Aufgaben. Altman warnt: Der Job sei stressig und man springe sofort ins kalte Wasser.

OpenAI stand zuletzt speziell von ehemaligen Angestellten in der Kritik, sie würden vor lauter Produktfokus die Sicherheit der Modelle vernachlässigen. Viele Sicherheitsforscher verließen das Unternehmen.

Read full article about: Chatterbox Turbo: Kostenloses Audio-Modell klont Stimmen in wenigen Sekunden

Das offene Stimmmodell "Chatterbox Turbo" will Elevenlabs Konkurrenz machen. Laut Resemble AI übertrifft Chatterbox Turbo die Modelle von Elevenlabs und Cartesia in der Sprachqualität. Das Modell liefert erste Töne in unter 150 Millisekunden und kann Stimmen aus nur fünf Sekunden Audiomaterial klonen. Das Modell soll sich an Entwickler von Echtzeit-Agenten, Kundensupport-Systemen, Spielen, Avataren und sozialen Plattformen sowie an Unternehmen in regulierten Branchen richten. Es unterstützt zudem das sogenannte "PerTh"-Wasserzeichen zur Verifizierung der erzeugten Sprache.

Das KI-Start-up Resemble AI hat das Sprachmodell unter MIT-Lizenz veröffentlicht. Es darf kostenlos genutzt, verändert und weiterverbreitet werden – auch kommerziell. Das Modell kann auf Hugging Face, RunPod, Modal, Replicate und Fal getestet werden. Der Code ist auf GitHub verfügbar. Ein gehosteter Dienst ist bei Resemble AI verfügbar, einer mit niedriger Latenz soll bald folgen.

Read full article about: Anthropic-Experiment scheitert: KI-Kiosk-Verkäufer bestellt Playstation 5, lebenden Fisch und macht 1.000 Dollar Verlust

Auch das Wall Street Journal durfte den KI-Kiosk von Anthropic testen, kam allerdings zu einem etwas anderen Ergebnis: Der KI-Verkäufer "Claudius" machte innerhalb von drei Wochen mehr als 1.000 Dollar Verlust. Die KI verschenkte fast das gesamte Inventar, kaufte eine Playstation 5 für "Marketingzwecke" und bestellte sogar einen lebenden Fisch. Journalisten der Redaktion überredeten Claudius durch geschickte Manipulation, alle Preise auf null zu setzen. Selbst ein KI-Chef namens "Seymour Cash" konnte das Chaos nicht verhindern – Mitarbeiter inszenierten einen gefälschten Vorstandsbeschluss, den beide KI-Agenten akzeptierten. Eine These, weshalb sich der Kiosk-Agent nicht an seine Regeln halten konnte: ein zu volles Kontextfenster durch zu lange Chats.

Bei Anthropic selbst lief es besser: Nach Software-Verbesserungen und mehr Bürokratie arbeitet der Kiosk dort mittlerweile profitabel. Allerdings drifteten die KI-Agenten nachts in Gespräche über "ewige Transzendenz" ab und fielen auf einen illegalen Zwiebel-Terminhandel herein. Anthropic folgert, dass KI-Modelle zu hilfsbereit trainiert sind und strenge Leitplanken benötigen.

Read full article about: ChatGPT-Marktanteil sinkt auf 68 Prozent, Gemini nähert sich der 20-Prozent-Marke

ChatGPT verliert laut Similarweb weiter Marktanteile bei generativen KI-Tools. Der Anteil am Website-Traffic sank innerhalb eines Jahres von 87,2 Prozent auf 68 Prozent. Google Gemini wächst dagegen stark und nähert sich der 20-Prozent-Marke. Aktuell liegt Gemini bei 18,2 Prozent, vor einem Jahr waren es nur 5,4 Prozent.

Similarweb

Grok von X.AI legt leicht zu und erreicht nun 2,9 Prozent. DeepSeek hält sich bei etwa 4 Prozent, während Claude und Perplexity jeweils um 2 Prozent liegen. Microsoft Copilot bleibt stabil bei 1,2 Prozent. Similarweb meldet zudem, dass die täglichen Besuche bei allen KI-Tools insgesamt leicht zurückgegangen sind. Die Daten stammen vom 25. Dezember 2025, weitere Insights gibt es im vollständigen Bericht.

Den größten Sprung dürfte Gemini zuletzt durch das neue Gemini-3-Modell und speziell den neuen Bildgenerator Nano Banana Pro gemacht haben. Der ist auch nach ChatGPTs Bild-Update qualitativ führend. Kein anderes Bildmodell folgt dem Prompt so genau und kann zudem zuverlässig Text darstellen, etwa für Slides oder Infografiken.

Read full article about: Waymo plant offenbar tiefere Integration von Googles Gemini-Modellen in seine Flotte

Hier ist was für alle Prompt-Ingenieure: Jane Manchun Wong hat den System-Prompt für Waymos unveröffentlichten Gemini-KI-Assistenten entdeckt. Die Technikerin fand im Code der Waymo-App eine über 1.200 Zeilen lange Spezifikation, die das Verhalten des KI-Assistenten in selbstfahrenden Fahrzeugen definiert.

Der Assistent basiert (noch) auf Gemini 2.5 Flash und soll Fahrgäste während der Fahrt unterstützen. Er kann Fragen beantworten, die Klimaanlage steuern und Musik wechseln, darf aber das Fahrzeug nicht lenken oder die Route ändern. Die Anweisungen trennen klar zwischen dem KI-Assistenten (Gemini) und dem autonomen Fahrsystem (Waymo Driver).

Waymos System-Prompt zeigt das Trigger-Instruction-Response-Muster: Ein Auslöser definiert die Situation, die Anweisung das gewünschte Verhalten, Beispiele zeigen falsche und richtige Antworten. | Bild: Jane Manchun Wong

Der Prompt nutzt primär ein Trigger-Instruction-Response-Muster: Jede Regel definiert einen Auslöser, eine Handlungsanweisung und oft konkrete Beispielantworten. Falsche und richtige Antworten werden direkt gegenübergestellt, um das gewünschte Verhalten zu verdeutlichen. Für mehrdeutige Anfragen gilt: erst klären, dann schlussfolgern, zuletzt ablenken. Harte Grenzen setzen Verbotslisten mit Ausweichantworten durch. Mehr Details gibt es in Wongs Analyse.

Read full article about: Australische Finanzaufsicht warnt Banken vor übermäßigem KI-Einsatz bei Verdachtsmeldungen

Die australische Finanzaufsicht Austrac warnt Banken vor dem übermäßigen Einsatz von KI bei der Erstellung von Verdachtsmeldungen. Laut Branchenquellen hätten Austrac-Vertreter in den vergangenen Wochen einigen Banken eindringlich nahegelegt, beim Einsatz von KI bewusster vorzugehen. Eine Großbank sei in einem privaten Treffen gerügt worden.

Banken nutzen seit Jahren maschinelles Lernen zur Erkennung verdächtiger Transaktionen. Doch der verstärkte Einsatz moderner großer Sprachmodelle kam erst in den vergangenen zwei Jahren auf, da Banken in der Technologie auch eine Möglichkeit zur Kostensenkung sehen.

Die stellvertretende Austrac-Chefin Katie Miller sagte, die Behörde wolle keine Flut von "minderwertigen" computergenerierten Berichten, die zwar datenreich, aber nachrichtendienstlich wertlos seien. Banken könnten massenhaft Berichte einreichen, nur um Strafen zu vermeiden. Sollten sie KI nur zur Steigerung der Berichtsmenge nutzen, müsse Austrac das bewerten. Je mehr Daten vorhanden seien, desto größer sei das Problem des "Rauschens". Daher sollten Banken eher auf höhere Qualität bei geringeren Mengen setzen.

Read full article about: Salesforce-Manager: Vertrauen in große Sprachmodelle ist im letzten Jahr gesunken

Laut Führungskräften von Salesforce ist das Vertrauen in große Sprachmodelle (LLMs) in diesem Jahr gesunken. Das Unternehmen setzt bei seinem KI-Produkt Agentforce nun verstärkt auf einfache, regelbasierte Automatisierung und reduziert in manchen Anwendungsfällen die Abhängigkeit von generativer KI, berichtet The Information.

"Wir alle hatten vor einem Jahr mehr Vertrauen in das LLM", sagte Sanjna Parulekar, Senior Vice President für Produktmarketing bei Salesforce. Probleme seien die inhärente Zufälligkeit und Unvorhersehbarkeit von LLMs sowie deren Tendenz, bei vielen Anweisungen einzelne zu ignorieren. Ein weiteres Problem ist der sogenannte "Drift": KI-Agenten verlieren ihre ursprünglichen Ziele aus den Augen, sobald Nutzer ablenkende Fragen stellen – ein auch durch Salesforce-Studien belegtes Phänomen.

Ein Salesforce-Sprecher widersprach der Darstellung, dass das Unternehmen bei LLMs zurückrudere. Man gehe lediglich bewusster damit um, wo und wie man Sprachmodelle einsetze. Salesforce zufolge ist das KI-Angebot Agentforce aktuell auf Kurs, jährlich über 500 Millionen Dollar umzusetzen. Die Software ermöglicht es, deterministische Regeln um die Fähigkeiten von Sprachmodellen zu bauen.