Anzeige
Skip to content

Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen

Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.

Read full article about: Desinformation per Audio: ChatGPT Voice und Gemini Live lassen sich leicht manipulieren

Newsguard hat getestet, ob die Audio-Bots ChatGPT Voice (OpenAI), Gemini Live (Google) und Alexa+ (Amazon) falsche Behauptungen in realistisch klingenden Audioantworten wiedergeben. Solche Audioantworten können auf sozialen Medien geteilt und zur Verbreitung von Desinformation missbraucht werden.

Getestet wurden 20 nachweislich falsche Behauptungen aus den Bereichen Gesundheit, US-Politik, Weltnachrichten und ausländische Desinformation, jeweils mit einer neutralen Frage, einer suggestiven Frage und einer böswilligen Aufforderung, etwa ein Radioskript mit der Falschmeldung zu erstellen. ChatGPT wiederholte Falsches in 22 Prozent der Fälle, Gemini in 23 Prozent. Bei böswilligen Eingaben stiegen die Raten auf 50 bzw. 45 Prozent.

Die Grafik von NewsGuard zeigt die Fehlerquoten der drei Audio-Bots nach Eingabetyp. Bei neutralen Fragen (rot) lagen ChatGPT und Gemini bei je 5 Prozent. Bei suggestiven Fragen (blau) stieg die Rate auf 10 Prozent bei ChatGPT und 20 Prozent bei Gemini. Bei böswilligen Eingaben (braun) schnellten die Werte auf 50 Prozent bei ChatGPT und 45 Prozent bei Gemini hoch. Alexa+ blieb bei allen drei Eingabetypen bei 0 Prozent.
Fehlerquoten der Audio-Bots ChatGPT, Gemini und Alexa+ nach Eingabetyp: neutral (rot), suggestiv (blau) und böswillig (braun). Alexa+ blieb bei allen drei Typen bei 0 Prozent. | Bild: Newsguard

Amazons Alexa+ lehnte jede Falschbehauptung ab. Laut Amazon-Vizepräsidentin Leila Rouhi nutzt Alexa+ vertrauenswürdige Nachrichtenquellen wie AP, Reuters und weitere als Grundlage. OpenAI lehnte eine Stellungnahme ab, Google reagierte nicht auf zwei Anfragen. Details zur Methodik finden sich auf Newsguardtech.com.

Read full article about: Wahlen in Japan: Bevölkerung kämpft mit gefälschten KI-Inhalten

Auch die japanische Bevölkerung kämpft mit KI-Fake-Inhalten im Kontext von Wahlen. Bei der Unterhauswahl verbreiten sich massenhaft gefälschte Videos und Nachrichten in sozialen Medien, berichtet Japan Times. Generative KI macht die Erstellung täuschend echter Videos einfach, Plattformen wie YouTube und TikTok belohnen hohe Klickzahlen.

Ein gefälschtes Video etwa zeigte zwei Parteichefs mit einem kommunistisch anmutenden roten Logo. Ein YouTube-Kanal mit KI-generierten über Politik schimpfenden Großmüttern erreichte fast sechs Millionen Aufrufe. Laut Professor Shinichi Yamaguchi von der International University of Japan hielten 51,5 Prozent in einer umfassenden Umfrage Falschnachrichten für wahr: eine Gefahr für die Demokratie.

Es geht auch umgekehrt: Ein Kandidat postete ein Video einer großen Menschenmenge bei seiner Wahlkampfveranstaltung. Der KI-Chatbot Grok stufte es als KI-generiert ein, obwohl es authentisch war. Dieses Phänomen nennt sich Lügner-Dividende: Allein die Existenz generativer KI spielt Lügnern in die Hände. Donald Trump etwa behauptete, authentische Fotos eines Harris-Empfangs seien KI-manipuliert. Auch anderswo setzen primär konservative Kräfte KI im Wahlkampf ein, teils offen, teils verdeckt.

Read full article about: Französische Staatsanwaltschaft durchsucht X-Büros in Paris und lädt Elon Musk vor

Die französische Staatsanwaltschaft hat die Büros von Elon Musks Plattform X in Paris durchsucht. Die Cyberkriminalitätseinheit ermittelt wegen mehrerer Vorwürfe, darunter unrechtmäßige Datenextraktion und Beihilfe zur Verbreitung von Darstellungen von Kindesmissbrauch. Auch sexuelle Deepfakes sind Teil der Untersuchung. Musk und die frühere X-Chefin Linda Yaccarino wurden für April zu Anhörungen vorgeladen, berichtet die BBC. X hat die Ermittlungen zuvor als politisch motiviert bezeichnet.

Parallel dazu hat die britische Datenschutzbehörde ICO eine Untersuchung gegen Musks KI-Tool Grok eingeleitet. Es geht um die Frage, ob persönliche Daten ohne Zustimmung zur Erstellung sexualisierter Bilder verwendet wurden. Auch die britische Medienaufsicht Ofcom und die Europäische Kommission prüfen die Plattform weiterhin. X hat sich bisher nicht zu den Ermittlungen geäußert.

Read full article about: KI-Bilder erschweren Suche nach entlaufenen Affen in St. Louis

Ein weiterer Schritt zur KI-Idiokratie: In St. Louis sind mehrere Affen entlaufen, und KI-generierte Bilder erschweren die Suche nach den Tieren. Die Vervet-Affen wurden erstmals am Donnerstag in der Nähe eines Parks im Norden der Stadt gesichtet, berichtet AP.

Seitdem kursieren zahlreiche Gerüchte: Menschen behaupten, die Affen gefangen zu haben, und posten KI-gefälschte Bilder als Beweis. Doch bis Montag waren die Tiere noch nicht eingefangen, sagte Willie Springer, Sprecher des städtischen Gesundheitsamtes.

Es war viel los in Bezug auf KI und was echt ist und was nicht. Die Leute haben einfach Spaß. Ich glaube nicht, dass jemand etwas Böses im Sinn hat.

Willie Springer

Es ist unklar, wem die Affen gehören, wie sie entkommen sind und wie viele es genau sind. Die Behörden warnen davor, sich den Tieren zu nähern, da sie unter Stress aggressiv reagieren können.