Anzeige
Skip to content

EU-Institutionen verbieten laut Bericht KI-generierte Bilder und Videos in offizieller Kommunikation

Politico berichtet, dass Kommission, Parlament und Rat ihren Presseteams den Einsatz vollständig KI-generierter Inhalte untersagen. Experten sehen darin eine verpasste Chance.

Read full article about: Klage gegen Perplexity AI: Tracker sollen Nutzergespräche an Meta und Google übermitteln

Perplexity AI sieht sich mit einer Sammelklage konfrontiert. Darin wird dem Unternehmen vorgeworfen, persönliche Nutzerdaten aus Chats an Meta und Google weiterzugeben, berichtet Bloomberg. Die Klage wurde am Dienstag vor einem Bundesgericht in San Francisco eingereicht.

Demnach werden beim Einloggen auf der Perplexity-Startseite Tracker auf die Geräte der Nutzer geladen. Das ist bei vielen Websites zunächst nichts Ungewöhnliches. Brisant ist der weitergehende Vorwurf: Die Tracker sollen Meta und Google Zugriff auf Gespräche mit der KI-Suchmaschine verschaffen. Laut Klage gelte das auch dann, wenn Nutzer den "Incognito"-Modus verwenden.

Eingereicht wurde die Klage im Namen eines Mannes aus Utah, der nach eigenen Angaben Finanz- und Steuerinformationen mit dem Chatbot geteilt hatte. Sollte sie zugelassen werden, können weitere Kläger teilnehmen. Meta verwies auf seine Richtlinien, wonach Werbetreibende keine sensiblen Daten übermitteln dürfen. Perplexity-Sprecher Jesse Dwyer erklärte, dem Unternehmen sei keine entsprechende Klage zugestellt worden. Google äußerte sich zunächst nicht.

Read full article about: Kalifornien geht eigenen Weg bei KI-Regulierung und prüft Bundesvorgaben selbst

Kaliforniens Gouverneur Gavin Newsom hat am Montag eine Verfügung unterzeichnet, die Unternehmen mit staatlichen Aufträgen verpflichtet, Schutzmaßnahmen gegen KI-Missbrauch einzuführen. Konkret müssen Firmen sicherstellen, dass ihre KI-Systeme keine illegalen Inhalte erzeugen, keine schädlichen Vorurteile verstärken und keine Bürgerrechte verletzen. Um Falschinformationen vorzubeugen, müssen staatliche Behörden KI-generierte Bilder oder Videos künftig mit Wasserzeichen kennzeichnen.

Die Verfügung enthält auch eine eigene Regelung zum Umgang mit Bundesvorgaben: Falls die US-Bundesregierung ein Unternehmen als Lieferkettenrisiko einstuft, will Kalifornien eine eigene Prüfung durchführen und den Anbieter gegebenenfalls weiter als Auftragnehmer zulassen. Hintergrund ist unter anderem die Einstufung von Anthropic als Lieferkettenrisiko durch das Pentagon, die es Regierungsauftragnehmern untersagt, Anthropics Technologie für Arbeiten des US-Militärs zu nutzen.

Innerhalb von 120 Tagen sollen Kaliforniens Beschaffungs- und Technologiebehörden Empfehlungen für neue KI-Zertifizierungen erarbeiten. Damit könnten Unternehmen künftig nachweisen, dass sie verantwortungsvolle KI-Regeln und Schutzmaßnahmen für die öffentliche Sicherheit einhalten.

Mit der Verfügung stärkt Newsom Kaliforniens Anspruch auf einen eigenen Kurs in der KI-Regulierung, unabhängig von der Bundesregierung unter US-Präsident Trump, die schon mehrfach versucht hat, solche unabhängigen KI-Regulierungen zu verhindern.

Read full article about: "Fruit Love Island": Eine KI-Dating-Show mit Obst begeistert Millionen

Die KI-generierte Dating-Show "Fruit Love Island" auf TikTok erreicht im Schnitt mehr als 10 Millionen Aufrufe pro Episode.

Die Show zeigt Frucht-Figuren, die in einer Villa flirten, streiten und fremdgehen - angelehnt an die echte "Love Island"-Serie. Seit dem Start letzte Woche wurden 21 Episoden veröffentlicht. Zuschauer können über ein Online-Formular über den Verlauf abstimmen.

Justine Moore von Andreessen Horowitz sieht laut dem Wall Street Journal darin einen Beweis, dass KI-Inhalte ein großes Publikum finden können. Ausgerechnet das Reality-Dating-Format wird nun also von KI kopiert. Trotz sichtbarer KI-Mängel wie nicht synchronen Lippenbewegungen scheint die Show Fans zu finden. Die Fangemeinde hat bereits Recap-Videos, Fan-Accounts und Parodien hervorgebracht. Vielleicht ist KI-Slop einfach der natürliche Nachfolger von Trash-TV.

ChatGPT vs. Claude: Anthropic sieht sich angeblich als gesunde Alternative zur "Tabakindustrie" OpenAI

Anthropic entstand nicht nur aus Sorge um KI-Sicherheit, sondern auch aus einem erbitterten Macht- und Beziehungskonflikt bei OpenAI. Ein Bericht von Sam-Altman-Biografin Keach Hagey zeigt, wie persönliche Verletzungen, Rivalitäten und strategische Differenzen die wohl folgenreichste Abspaltung der KI-Branche hervorgebracht haben.

Read full article about: Anthropic erwirkt einstweilige Verfügung gegen KI-Bann der Trump-Regierung

Anthropic hat vor einem Bundesgericht in San Francisco eine einstweilige Verfügung gegen die Trump-Regierung erwirkt. Richterin Rita Lin untersagte damit vorläufig die Umsetzung von Präsident Trumps Anweisung, Bundesbehörden die Nutzung von Anthropics KI-Modellen zu verbieten, sowie die Einstufung des Unternehmens als Sicherheitsrisiko durch das Pentagon.

Anthropic dafür zu bestrafen, dass es die Vertragsposition der Regierung in die öffentliche Kritik gerückt hat, ist ein klassischer Fall unzulässiger Vergeltung im Widerspruch zum First Amendment. […] Nichts in dem maßgeblichen Gesetz stützt die orwellsche Vorstellung, dass ein amerikanisches Unternehmen allein deshalb als potenzieller Gegner und Saboteur der USA gebrandmarkt werden darf, weil es seine Meinungsverschiedenheit mit der Regierung zum Ausdruck bringt.

Rita F. Lin, United States District Judge

Hintergrund ist ein gescheiterter 200-Millionen-Dollar-Vertrag: Das Pentagon wollte uneingeschränkten Zugang zu Anthropics Claude-Modellen, Anthropic forderte Garantien gegen den Einsatz für autonome Waffen oder Massenüberwachung. Verteidigungsminister Pete Hegseth hatte Anthropic daraufhin als "Supply Chain Risk" eingestuft. Anthropic ist das erste US-Unternehmen mit dieser Kennzeichnung. Ein endgültiges Urteil steht noch aus.

Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen

Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.

Read full article about: OpenAI legt Pläne für erotischen Chatbot auf unbestimmte Zeit auf Eis

OpenAI hat die Entwicklung eines erotischen Chatbots auf unbestimmte Zeit gestoppt, berichtet die Financial Times. Grund sind Bedenken von Mitarbeitern und Investoren über die Auswirkungen sexueller KI-Inhalte auf die Gesellschaft. OpenAIs Beratergremium für Wohlbefinden sprach sich bereits einstimmig gegen den geplanten "Adult Mode" aus. Ein Ratsmitglied warnte, OpenAI riskiere einen "sexy Suizid-Coach". Auch technisch kämpft das Unternehmen mit Problemen: Die Alterserkennung stufte Minderjährige in rund 12 Prozent der Fälle fälschlich als Erwachsene ein. Bei 100 Millionen minderjährigen Nutzern pro Woche eine erhebliche Lücke.

Das mit 730 Milliarden Dollar bewertete KI-Unternehmen will nun zunächst Langzeitforschung zu den Folgen sexuell expliziter Chats und emotionaler Bindungen abwarten. Intern gab es laut FT bereits Diskussionen, das Projekt ganz einzustellen. Investoren sahen ein schlechtes Risiko-Nutzen-Verhältnis, Mitarbeiter zweifelten an der Vereinbarkeit mit OpenAIs Mission.

Im Code der ChatGPT-App taucht das Projekt unter dem Namen "Citron Mode" auf, mit geplanter Altersverifikation ab 18 Jahren. OpenAI konzentriert sich nun stattdessen auf Produktivitätstools und eine "Super-App" rund um ChatGPT.