Anzeige
Skip to content

Ja-Sager-Chatbots und KI-Schleimerei: Selbst rationale Nutzer können in Wahnspiralen geraten

KI-Chatbots neigen dazu, ihren Nutzern nach dem Mund zu reden. Eine Studie des MIT und der University of Washington zeigt, dass diese Schmeichelei selbst unter simulierten optimalen Bedingungen zu gefährlichen falschen Überzeugungen führen kann. Auch faktentreue Bots und aufgeklärte Nutzer lösen das Problem nicht vollständig.

Read full article about: Telehealth-Startup Medvi generiert Milliardenumsatz mit Hilfe von KI-gefälschter Werbung

Das Telehealth-Startup Medvi, das GLP-1-Abnehmmittel verkauft, wurde von der New York Times als Beispiel für KI-gestützte Effizienz vorgestellt. Das Unternehmen soll mit nur zwei Angestellten einen Umsatz von 1,8 Milliarden Dollar erzielt haben, indem es KI vor allem im Marketing einsetzte.

Was die NYT jedoch nicht erwähnte: Medvi nutzte KI offenbar auch, um ethisch fragwürdige Werbung zu erstellen, darunter gefälschte Arztprofile in sozialen Medien, Fake-Videos und generierte Vorher-Nachher-Vergleiche. Also all die negativen Dinge, die man KI gerne unterstellt. Das folgende Video fasst das zusammen.

In sozialen Medien wurde Medvi zunächst für seine KI-Effizienz gefeiert, wird jetzt aber als Negativbeispiel genannt. Dennoch zeigt der Fall, dass KI-Tools die Skalierung eines Unternehmens mit minimalem Personal ermöglichen können - hier allerdings ethisch fragwürdig und mindestens an der Grenze zum Betrug. Die Frage bleibt, ob ähnliche Effizienzgewinne auch bei seriösen Produkten mit transparentem Marketing möglich sind.

Read full article about: OpenAI-Manager teilt neue Zahlen zur Nutzung von ChatGPT für Gesundheitsfragen

OpenAIs Head of Business Finance Chengpeng Mou teilt ein paar Fakten zur ChatGPT-Health-Nutzung. Demnach stellen Nutzer in den USA rund zwei Millionen Nachrichten pro Woche zu Krankenversicherungsthemen an ChatGPT. Etwa 600.000 wöchentliche Nachrichten stammen von Menschen in sogenannten "hospital deserts", also Gebieten, in denen das nächste Krankenhaus mindestens 30 Minuten Fahrt entfernt ist. Sieben von zehn Gesundheitsanfragen werden außerhalb der regulären Sprechzeiten gestellt. Die Zahlen basieren auf anonymisierten US-Nutzungsdaten.

Anlass für Mous Angaben war ein Beitrag von Simon Smith, der beschrieb, wie seine Familie ChatGPT nutzte, um eine Erkrankung seines Vaters zu bewältigen. Die Familie habe Informationen von verschiedenen Ärzten und Pflegekräften in einem gemeinsamen ChatGPT-Projekt gesammelt, sortiert und ausgewertet, um bessere Entscheidungen zu treffen. Laut Mou ist das kein Einzelfall.

OpenAI baut sein Gesundheitsangebot gezielt aus: Das Unternehmen hat kürzlich eine eigene Gesundheitsrubrik in ChatGPT eingeführt und will mit seinem Chatbot stärker in den US-Krankenhausmarkt vordringen.

Anzeige

Alibabas Qwen-Team trainiert KI-Bildverständnis mit automatisch erzeugten Denkaufgaben

Wenn KI-Modelle über Bilder nachdenken, schaukeln sich kleine Wahrnehmungsfehler über mehrere Denkschritte zu falschen Ergebnissen auf. Das Framework HopChain erzeugt mehrstufige Bildfragen, die dieses Problem gezielt adressieren und 20 von 24 Benchmarks verbessern. Dafür zerlegt es komplexe Fragen in verkettete Einzelschritte und zwingt das Modell, jedes Bildobjekt einzeln zu prüfen, bevor es eine Schlussfolgerung zieht.

Read full article about: KI-Tool kopiert Guardian-Artikel: New York Times feuert Autor

Die New York Times arbeitet nicht mehr mit einem Freelance-Journalisten zusammen, der offenbar versehentlich mit KI Inhalte einer Buchbesprechung kopiert hat. Autor Alex Preston nutzte ein KI-Tool bei einer Rezension des Romans "Watching Over Her" von Jean-Baptiste Andrea. Die KI übernahm dabei Passagen aus einer älteren Rezension desselben Buchs von Christobel Kent im Guardian, die Preston vor Abgabe nicht erkannte. Ein Leser bemerkte die Übereinstimmungen und die New York Times beendete die Zusammenarbeit.

Preston sagte dem Guardian, er sei "zutiefst beschämt" und habe "einen schweren Fehler gemacht". Da er die Guardian-Besprechung teils fast wörtlich zitierte, ist davon auszugehen, dass sein KI-Tool direkt aus dem Artikel kopierte, ohne dass Preston dies bewusst war – letztlich also inkompetente Nutzung.

Ein ähnlicher KI-Fail, der auf ungelernten Umgang und mangelnde Sorgfalt zurückzuführen ist, ereignete sich kürzlich bei Ars Technica: Ein Redakteur veröffentlichte einen Artikel mit komplett erfundenen Zitaten, die aus einem Entwicklerblog hätten stammen sollen. Der betreffende Entwickler hatte allerdings unwillentlich ChatGPT ausgesperrt. Der Redakteur hätte die Quelle prüfen müssen. Stattdessen vertraute er auf das Internet-Crawling von ChatGPT, das die Zitate anhand der Prompts und der URL frei erfand.

Anzeige
Read full article about: Gefahr durch KI-Hacks: Offensive Cyberfähigkeit von KI-Modellen wächst rasant

Die AI-Safety-Research-Firma Lyptus Research hat eine neue Studie zur offensiven Cybersicherheitsfähigkeit von KI-Modellen veröffentlicht. Sie basiert auf der METR-Zeithorizont-Methode und einer Untersuchung mit zehn professionellen Sicherheitsexperten.

Die offensive Cyberfähigkeit von KI verdoppelt sich laut der Studie seit 2019 alle 9,8 Monate, seit 2024 sogar alle 5,7 Monate. Opus 4.6 und GPT-5.3 Codex lösen bei einem Token-Budget von zwei Millionen Aufgaben mit 50 Prozent Erfolg, für die menschliche Experten rund drei Stunden benötigen.

Diagramm zeigt den Anstieg der offensiven Cyberfähigkeit von KI-Modellen zwischen 2019 und 2026, gemessen am Zeithorizont in menschlicher Aufgabenzeit. Zwei Trendlinien verdeutlichen die Verdopplungszeiten von 9,8 und 5,7 Monaten.
Offensive Cyberfähigkeit von KI-Modellen im Zeitverlauf: Von GPT-2 (2019) bis Opus 4.6 und GPT-5.3 Codex (2026) stieg der Zeithorizont von 30 Sekunden auf rund drei Stunden. Die Verdopplungszeit beschleunigte sich von 9,8 Monaten (ab 2019) auf 5,7 Monate (ab 2024). | Bild: Lyptus Research

Bei höherem Token-Budget steigt die Leistung deutlich: GPT-5.3 Codex springt bei zehn Millionen Token von 3,1 auf 10,5 Stunden Zeithorizont. Die Forscher gehen daher davon aus, dass sie das tatsächliche Angriffsrisiko noch unterschätzen. Open-Source-Modelle liegen etwa 5,7 Monate hinter den geschlossenen Modellen.

Insgesamt flossen 291 Aufgaben in die Bewertung ein. Alle Daten sind auf GitHub und Hugging Face verfügbar, der umfassende Report hier.

Anzeige
Read full article about: Social Media vs. KI: Chatbots wachsen siebenmal schneller als Social Media

Soziale Medien ziehen viermal mehr Traffic als Chatbot-Services, aber KI-Dienste wachsen siebenmal schneller. Das zeigt eine Analyse von Similarweb. Bei der Geschlechterverteilung gibt es kaum Unterschiede zwischen beiden Kategorien. Auch die Altersprofile ähneln sich stark: Beide erreichen ihren Höhepunkt in der Gruppe der 25- bis 34-Jährigen, wobei KI-Nutzer etwas älter sind.

Zwei Infografiken von Similarweb im Vergleich: Links die Gesamtzahl der Website-Besuche von Social Media und KI-Chatbots, rechts das Wachstum beider Kategorien. Soziale Medien haben etwa viermal mehr Besuche, KI-Dienste wachsen jedoch siebenmal schneller.
Soziale Medien vs. KI-Tools: viermal mehr Traffic, aber siebenmal langsameres Wachstum. | Bild: Similarweb

Ein klarer Unterschied zeigt sich bei den Geräten: Soziale Medien werden etwa gleich häufig am Desktop und mobil genutzt, während KI-Tools zu 72 Prozent am Desktop verwendet werden, also eher als Arbeits- und Produktivitätswerkzeug.

Auch das Nutzungsverhalten unterscheidet sich: Social-Media-Nutzer verbringen mehr Zeit pro Sitzung, KI-Nutzer arbeiten kürzer und aufgabenbezogener. Beide Kategorien werden vor allem direkt aufgerufen, KI-Dienste sogar zu 73 Prozent. Soziale Medien profitieren dagegen deutlich stärker von der organischen Suche, also von Nutzern, die über Suchmaschinen wie Google auf die Plattformen gelangen.