Anzeige
Skip to content

Matthias Bastian

Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.

Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten

KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.

Read full article about: Telehealth-Startup Medvi generiert Milliardenumsatz mit Hilfe von KI-gefälschter Werbung

Das Telehealth-Startup Medvi, das GLP-1-Abnehmmittel verkauft, wurde von der New York Times als Beispiel für KI-gestützte Effizienz vorgestellt. Das Unternehmen soll mit nur zwei Angestellten einen Umsatz von 1,8 Milliarden Dollar erzielt haben, indem es KI vor allem im Marketing einsetzte.

Was die NYT jedoch nicht erwähnte: Medvi nutzte KI offenbar auch, um ethisch fragwürdige Werbung zu erstellen, darunter gefälschte Arztprofile in sozialen Medien, Fake-Videos und generierte Vorher-Nachher-Vergleiche. Also all die negativen Dinge, die man KI gerne unterstellt. Das folgende Video fasst das zusammen.

In sozialen Medien wurde Medvi zunächst für seine KI-Effizienz gefeiert, wird jetzt aber als Negativbeispiel genannt. Dennoch zeigt der Fall, dass KI-Tools die Skalierung eines Unternehmens mit minimalem Personal ermöglichen können - hier allerdings ethisch fragwürdig und mindestens an der Grenze zum Betrug. Die Frage bleibt, ob ähnliche Effizienzgewinne auch bei seriösen Produkten mit transparentem Marketing möglich sind.

Read full article about: OpenAI-Manager teilt neue Zahlen zur Nutzung von ChatGPT für Gesundheitsfragen

OpenAIs Head of Business Finance Chengpeng Mou teilt ein paar Fakten zur ChatGPT-Health-Nutzung. Demnach stellen Nutzer in den USA rund zwei Millionen Nachrichten pro Woche zu Krankenversicherungsthemen an ChatGPT. Etwa 600.000 wöchentliche Nachrichten stammen von Menschen in sogenannten "hospital deserts", also Gebieten, in denen das nächste Krankenhaus mindestens 30 Minuten Fahrt entfernt ist. Sieben von zehn Gesundheitsanfragen werden außerhalb der regulären Sprechzeiten gestellt. Die Zahlen basieren auf anonymisierten US-Nutzungsdaten.

Anlass für Mous Angaben war ein Beitrag von Simon Smith, der beschrieb, wie seine Familie ChatGPT nutzte, um eine Erkrankung seines Vaters zu bewältigen. Die Familie habe Informationen von verschiedenen Ärzten und Pflegekräften in einem gemeinsamen ChatGPT-Projekt gesammelt, sortiert und ausgewertet, um bessere Entscheidungen zu treffen. Laut Mou ist das kein Einzelfall.

OpenAI baut sein Gesundheitsangebot gezielt aus: Das Unternehmen hat kürzlich eine eigene Gesundheitsrubrik in ChatGPT eingeführt und will mit seinem Chatbot stärker in den US-Krankenhausmarkt vordringen.

Read full article about: KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor

Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat. Autor Alex Preston nutzte ein KI-Tool bei einer Rezension des Romans "Watching Over Her" von Jean-Baptiste Andrea. Die KI übernahm dabei Passagen aus einer älteren Rezension desselben Buchs von Christobel Kent im Guardian, die Preston vor Abgabe nicht erkannte. Ein Leser bemerkte die Übereinstimmungen und die New York Times beendete die Zusammenarbeit.

Preston sagte dem Guardian, er sei "zutiefst beschämt" und habe "einen schweren Fehler gemacht". Da er die Guardian-Besprechung teils fast wörtlich zitierte, ist davon auszugehen, dass sein KI-Tool direkt aus dem Artikel kopierte, ohne dass Preston dies bewusst war – letztlich also inkompetente Nutzung.

Ein ähnlicher KI-Fail, der auf ungelernten Umgang und mangelnde Sorgfalt zurückzuführen ist, ereignete sich kürzlich bei Ars Technica: Ein Redakteur veröffentlichte einen Artikel mit komplett erfundenen Zitaten, die aus einem Entwicklerblog hätten stammen sollen. Der betreffende Entwickler hatte allerdings unwillentlich ChatGPT ausgesperrt. Der Redakteur hätte die Quelle prüfen müssen. Stattdessen vertraute er auf das Internet-Crawling von ChatGPT, das die Zitate anhand der Prompts und der URL frei erfand.

Read full article about: Gefahr durch KI-Hacks: Offensive Cyberfähigkeit von KI-Modellen wächst rasant

Die AI-Safety-Research-Firma Lyptus Research hat eine neue Studie zur offensiven Cybersicherheitsfähigkeit von KI-Modellen veröffentlicht. Sie basiert auf der METR-Zeithorizont-Methode und einer Untersuchung mit zehn professionellen Sicherheitsexperten.

Die offensive Cyberfähigkeit von KI verdoppelt sich laut der Studie seit 2019 alle 9,8 Monate, seit 2024 sogar alle 5,7 Monate. Opus 4.6 und GPT-5.3 Codex lösen bei einem Token-Budget von zwei Millionen Aufgaben mit 50 Prozent Erfolg, für die menschliche Experten rund drei Stunden benötigen.

Diagramm zeigt den Anstieg der offensiven Cyberfähigkeit von KI-Modellen zwischen 2019 und 2026, gemessen am Zeithorizont in menschlicher Aufgabenzeit. Zwei Trendlinien verdeutlichen die Verdopplungszeiten von 9,8 und 5,7 Monaten.
Offensive Cyberfähigkeit von KI-Modellen im Zeitverlauf: Von GPT-2 (2019) bis Opus 4.6 und GPT-5.3 Codex (2026) stieg der Zeithorizont von 30 Sekunden auf rund drei Stunden. Die Verdopplungszeit beschleunigte sich von 9,8 Monaten (ab 2019) auf 5,7 Monate (ab 2024). | Bild: Lyptus Research

Bei höherem Token-Budget steigt die Leistung deutlich: GPT-5.3 Codex springt bei zehn Millionen Token von 3,1 auf 10,5 Stunden Zeithorizont. Die Forscher gehen daher davon aus, dass sie das tatsächliche Angriffsrisiko noch unterschätzen. Open-Source-Modelle liegen etwa 5,7 Monate hinter den geschlossenen Modellen.

Insgesamt flossen 291 Aufgaben in die Bewertung ein. Alle Daten sind auf GitHub und Hugging Face verfügbar, der umfassende Report hier.

Read full article about: Social Media vs. KI: Chatbots wachsen siebenmal schneller als Social Media

Soziale Medien ziehen viermal mehr Traffic als Chatbot-Services, aber KI-Dienste wachsen siebenmal schneller. Das zeigt eine Analyse von Similarweb. Bei der Geschlechterverteilung gibt es kaum Unterschiede zwischen beiden Kategorien. Auch die Altersprofile ähneln sich stark: Beide erreichen ihren Höhepunkt in der Gruppe der 25- bis 34-Jährigen, wobei KI-Nutzer etwas älter sind.

Zwei Infografiken von Similarweb im Vergleich: Links die Gesamtzahl der Website-Besuche von Social Media und KI-Chatbots, rechts das Wachstum beider Kategorien. Soziale Medien haben etwa viermal mehr Besuche, KI-Dienste wachsen jedoch siebenmal schneller.
Soziale Medien vs. KI-Tools: viermal mehr Traffic, aber siebenmal langsameres Wachstum. | Bild: Similarweb

Ein klarer Unterschied zeigt sich bei den Geräten: Soziale Medien werden etwa gleich häufig am Desktop und mobil genutzt, während KI-Tools zu 72 Prozent am Desktop verwendet werden, also eher als Arbeits- und Produktivitätswerkzeug.

Auch das Nutzungsverhalten unterscheidet sich: Social-Media-Nutzer verbringen mehr Zeit pro Sitzung, KI-Nutzer arbeiten kürzer und aufgabenbezogener. Beide Kategorien werden vor allem direkt aufgerufen, KI-Dienste sogar zu 73 Prozent. Soziale Medien profitieren dagegen deutlich stärker von der organischen Suche, also von Nutzern, die über Suchmaschinen wie Google auf die Plattformen gelangen.

Read full article about: Netflix-KI-Framework VOID entfernt Objekte aus Videos und passt physikalische Effekte an

Netflix hat ein Open-Source-KI-System zur Objektentfernung in Videos veröffentlicht. Das Framework namens VOID ("Video Object and Interaction Deletion") entfernt Objekte aus Videos und passt dabei auch physikalische Auswirkungen wie Kollisionen im restlichen Video an.

VOID baut auf Alibabas Video-Diffusionsmodell CogVideoX auf, das mit synthetischen Daten aus Googles Kubric und Adobes HUMOTO für die Interaktionserkennung feinabgestimmt wurde. Googles Gemini 3 Pro analysiert die Szene und erkennt betroffene Bereiche, Metas SAM2 segmentiert die zu entfernenden Objekte. Ein optionaler zweiter Durchlauf korrigiert Formverzerrungen mithilfe von optischem Fluss.

Das Projekt wurde von Netflix-Forschern gemeinsam mit der Universität INSAIT Sofia entwickelt. Code, Paper und Demo sind auf GitHub, arXiv und Hugging Face verfügbar. Das System ist mit der Apache-2.0-Lizenz verfügbar, darf also kommerziell genutzt werden.

Read full article about: OpenAI baut Führungsebene um: Krankheitsfälle erzwingen personelle Veränderungen

Bei OpenAI stehen personelle Veränderungen an. Fidji Simo, CEO des neu geschaffenen Bereichs "AGI-Deployment", geht wegen einer Autoimmunerkrankung des Nervensystems für mehrere Wochen in den Krankenstand. Während ihrer Abwesenheit übernimmt OpenAI-Präsident Greg Brockman die Produktverantwortung, einschließlich der Super-App-Pläne des Unternehmens. Auf der Geschäftsseite übernehmen CSO Jason Kwon, CFO Sarah Friar und CRO Denise Dresser.

Auch Marketingchefin Kate Rouch tritt aus gesundheitlichen Gründen zurück. Rouch plant, in einer kleineren Rolle zurückzukehren, sobald es ihre Gesundheit erlaube. Gary Briggs ersetzt sie vorübergehend.

COO Brad Lightcap gibt ebenfalls seinen Posten ab und wechselt in ein neues Team für "Spezialprojekte" unter CEO Sam Altman. Dresser übernimmt einen Großteil seiner Aufgaben. Lightcaps Zuständigkeiten für Regierung und "OpenAI for Countries" gehen an die Strategieabteilung.