Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten
KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.
Das Telehealth-Startup Medvi, das GLP-1-Abnehmmittel verkauft, wurde von der New York Times als Beispiel für KI-gestützte Effizienz vorgestellt. Das Unternehmen soll mit nur zwei Angestellten einen Umsatz von 1,8 Milliarden Dollar erzielt haben, indem es KI vor allem im Marketing einsetzte.
Was die NYT jedoch nicht erwähnte: Medvi nutzte KI offenbar auch, um ethisch fragwürdige Werbung zu erstellen, darunter gefälschte Arztprofile in sozialen Medien, Fake-Videos und generierte Vorher-Nachher-Vergleiche. Also all die negativen Dinge, die man KI gerne unterstellt. Das folgende Video fasst das zusammen.
In sozialen Medien wurde Medvi zunächst für seine KI-Effizienz gefeiert, wird jetzt aber als Negativbeispiel genannt. Dennoch zeigt der Fall, dass KI-Tools die Skalierung eines Unternehmens mit minimalem Personal ermöglichen können - hier allerdings ethisch fragwürdig und mindestens an der Grenze zum Betrug. Die Frage bleibt, ob ähnliche Effizienzgewinne auch bei seriösen Produkten mit transparentem Marketing möglich sind.
OpenAIs Head of Business Finance Chengpeng Mou teilt ein paar Fakten zur ChatGPT-Health-Nutzung. Demnach stellen Nutzer in den USA rund zwei Millionen Nachrichten pro Woche zu Krankenversicherungsthemen an ChatGPT. Etwa 600.000 wöchentliche Nachrichten stammen von Menschen in sogenannten "hospital deserts", also Gebieten, in denen das nächste Krankenhaus mindestens 30 Minuten Fahrt entfernt ist. Sieben von zehn Gesundheitsanfragen werden außerhalb der regulären Sprechzeiten gestellt. Die Zahlen basieren auf anonymisierten US-Nutzungsdaten.
Anlass für Mous Angaben war ein Beitrag von Simon Smith, der beschrieb, wie seine Familie ChatGPT nutzte, um eine Erkrankung seines Vaters zu bewältigen. Die Familie habe Informationen von verschiedenen Ärzten und Pflegekräften in einem gemeinsamen ChatGPT-Projekt gesammelt, sortiert und ausgewertet, um bessere Entscheidungen zu treffen. Laut Mou ist das kein Einzelfall.
Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat. Autor Alex Preston nutzte ein KI-Tool bei einer Rezension des Romans "Watching Over Her" von Jean-Baptiste Andrea. Die KI übernahm dabei Passagen aus einer älteren Rezension desselben Buchs von Christobel Kent im Guardian, die Preston vor Abgabe nicht erkannte. Ein Leser bemerkte die Übereinstimmungen und die New York Times beendete die Zusammenarbeit.
Preston sagte dem Guardian, er sei "zutiefst beschämt" und habe "einen schweren Fehler gemacht". Da er die Guardian-Besprechung teils fast wörtlich zitierte, ist davon auszugehen, dass sein KI-Tool direkt aus dem Artikel kopierte, ohne dass Preston dies bewusst war – letztlich also inkompetente Nutzung.
Die AI-Safety-Research-Firma Lyptus Research hat eine neue Studie zur offensiven Cybersicherheitsfähigkeit von KI-Modellen veröffentlicht. Sie basiert auf der METR-Zeithorizont-Methode und einer Untersuchung mit zehn professionellen Sicherheitsexperten.
Die offensive Cyberfähigkeit von KI verdoppelt sich laut der Studie seit 2019 alle 9,8 Monate, seit 2024 sogar alle 5,7 Monate. Opus 4.6 und GPT-5.3 Codex lösen bei einem Token-Budget von zwei Millionen Aufgaben mit 50 Prozent Erfolg, für die menschliche Experten rund drei Stunden benötigen.
Offensive Cyberfähigkeit von KI-Modellen im Zeitverlauf: Von GPT-2 (2019) bis Opus 4.6 und GPT-5.3 Codex (2026) stieg der Zeithorizont von 30 Sekunden auf rund drei Stunden. Die Verdopplungszeit beschleunigte sich von 9,8 Monaten (ab 2019) auf 5,7 Monate (ab 2024). | Bild: Lyptus Research
Bei höherem Token-Budget steigt die Leistung deutlich: GPT-5.3 Codex springt bei zehn Millionen Token von 3,1 auf 10,5 Stunden Zeithorizont. Die Forscher gehen daher davon aus, dass sie das tatsächliche Angriffsrisiko noch unterschätzen. Open-Source-Modelle liegen etwa 5,7 Monate hinter den geschlossenen Modellen.
Soziale Medien ziehen viermal mehr Traffic als Chatbot-Services, aber KI-Dienste wachsen siebenmal schneller. Das zeigt eine Analyse von Similarweb. Bei der Geschlechterverteilung gibt es kaum Unterschiede zwischen beiden Kategorien. Auch die Altersprofile ähneln sich stark: Beide erreichen ihren Höhepunkt in der Gruppe der 25- bis 34-Jährigen, wobei KI-Nutzer etwas älter sind.
Soziale Medien vs. KI-Tools: viermal mehr Traffic, aber siebenmal langsameres Wachstum. | Bild: Similarweb
Ein klarer Unterschied zeigt sich bei den Geräten: Soziale Medien werden etwa gleich häufig am Desktop und mobil genutzt, während KI-Tools zu 72 Prozent am Desktop verwendet werden, also eher als Arbeits- und Produktivitätswerkzeug.
Auch das Nutzungsverhalten unterscheidet sich: Social-Media-Nutzer verbringen mehr Zeit pro Sitzung, KI-Nutzer arbeiten kürzer und aufgabenbezogener. Beide Kategorien werden vor allem direkt aufgerufen, KI-Dienste sogar zu 73 Prozent. Soziale Medien profitieren dagegen deutlich stärker von der organischen Suche, also von Nutzern, die über Suchmaschinen wie Google auf die Plattformen gelangen.
Netflix hat ein Open-Source-KI-System zur Objektentfernung in Videos veröffentlicht. Das Framework namens VOID ("Video Object and Interaction Deletion") entfernt Objekte aus Videos und passt dabei auch physikalische Auswirkungen wie Kollisionen im restlichen Video an.
VOID baut auf Alibabas Video-Diffusionsmodell CogVideoX auf, das mit synthetischen Daten aus Googles Kubric und Adobes HUMOTO für die Interaktionserkennung feinabgestimmt wurde. Googles Gemini 3 Pro analysiert die Szene und erkennt betroffene Bereiche, Metas SAM2 segmentiert die zu entfernenden Objekte. Ein optionaler zweiter Durchlauf korrigiert Formverzerrungen mithilfe von optischem Fluss.
Das Projekt wurde von Netflix-Forschern gemeinsam mit der Universität INSAIT Sofia entwickelt. Code, Paper und Demo sind auf GitHub, arXiv und Hugging Face verfügbar. Das System ist mit der Apache-2.0-Lizenz verfügbar, darf also kommerziell genutzt werden.
Bei OpenAI stehen personelle Veränderungen an. Fidji Simo, CEO des neu geschaffenen Bereichs "AGI-Deployment", geht wegen einer Autoimmunerkrankung des Nervensystems für mehrere Wochen in den Krankenstand. Während ihrer Abwesenheit übernimmt OpenAI-Präsident Greg Brockman die Produktverantwortung, einschließlich der Super-App-Pläne des Unternehmens. Auf der Geschäftsseite übernehmen CSO Jason Kwon, CFO Sarah Friar und CRO Denise Dresser.
COO Brad Lightcap gibt ebenfalls seinen Posten ab und wechselt in ein neues Team für "Spezialprojekte" unter CEO Sam Altman. Dresser übernimmt einen Großteil seiner Aufgaben. Lightcaps Zuständigkeiten für Regierung und "OpenAI for Countries" gehen an die Strategieabteilung.