US-Senat verabschiedet Gesetz gegen sexuelle KI-Deepfakes nach Grok-Skandal
Der US-Senat reagiert auf die Flut sexualisierter KI-Bilder auf Elon Musks Plattform X mit einem neuen Gesetz. Opfer sollen künftig die Urheber verklagen können.
Der US-Senat reagiert auf die Flut sexualisierter KI-Bilder auf Elon Musks Plattform X mit einem neuen Gesetz. Opfer sollen künftig die Urheber verklagen können.
Die Musikplattform Bandcamp untersagt ab sofort Musik, die vollständig oder zu wesentlichen Teilen durch generative Künstliche Intelligenz erstellt wurde. Mit dieser neuen Richtlinie will das Unternehmen nach eigener Aussage die menschliche Kreativität und die direkte Verbindung zwischen Künstlern und Fans schützen. Auch der Einsatz von KI-Tools zur Imitation bestimmter Künstler oder Stile ist laut den neuen Regeln strikt verboten.
Anders als bei vielen Streaming-Diensten steht bei Bandcamp der direkte Kauf von Musik und Merchandise im Vordergrund, wodurch Fans die Urheber direkt finanziell unterstützen können.
Nutzer sind aufgefordert, Inhalte zu melden, die stark nach KI klingen. Bandcamp behält sich das Recht vor, Musik bereits bei bloßem Verdacht auf einen KI-Ursprung von der Plattform zu entfernen.
Wer von Sprachmodellen innere Kohärenz erwartet, stellt laut einem Anthropic-Forscher die falsche Frage.
"Warum sagt Seite fünf eines Buches, das beste Essen sei Pizza, und Seite 17, das beste Essen sei Pasta? Was denkt das Buch wirklich? Und du sagst: 'Es ist ein Buch!'", erklärt Josh Batson, Research Scientist bei Anthropic, in einem lesenswerten Artikel über Methoden zur Interpretierbarkeit von LLMs im MIT Technology Review.
Die Analogie stammt aus Experimenten zur internen Verarbeitung von Fakten. Anthropic fand heraus, dass Claude unterschiedliche Mechanismen nutzt, um zu wissen, dass Bananen gelb sind, und um zu bestätigen, dass der Satz "Bananen sind gelb" wahr ist. Diese Mechanismen sind nicht miteinander verbunden. Wenn ein Modell widersprüchliche Antworten gibt, greift es auf verschiedene Teile seiner selbst zurück – ohne zentrale Instanz. "Es könnte sein, dass du mit Claude redest und es dann abdriftet", sagt Batson. "Und jetzt redest du nicht mehr mit Claude, sondern mit etwas anderem." Die Implikation: Die Annahme, Sprachmodelle besäßen mentale Kohärenz wie Menschen, könnte ein Kategorienfehler sein.
Mehrere Online-Händler berichten, dass Amazons KI-gestütztes Einkaufstool ihre Produkte ohne Erlaubnis auf dem Marktplatz anzeigt. Amazon verteidigt das Programm, doch die Kritik wächst.
Mehr als fünf Prozent aller weltweit über ChatGPT verschickten Nachrichten drehen sich um das Thema Gesundheit. Laut einem Bericht, den OpenAI exklusiv mit Axios teilte, nutzen täglich alleine 40 Millionen US-Bürger den Chatbot für medizinische Fragen. Die Nutzer lassen sich Arztrechnungen erklären, vergleichen Versicherungen oder prüfen Symptome, oft weil gerade kein Arzt verfügbar ist. Das Unternehmen hatte diesen Trend bereits früh erkannt und vermarktete GPT-5 als besonders leistungsfähiges Modell für solche Anwendungsfälle.
OpenAI verzeichnete laut dem Bericht zuletzt wöchentlich fast zwei Millionen Fragen alleine zu Versicherungsthemen, da die Regierung unter US-Präsident Donald Trump zum neuen Jahr lange geltende Subventionen für Krankenversicherungen auslaufen ließ.
Gerade im medizinischen Bereich birgt die Nutzung allerdings viele Gefahren, da die Modelle noch immer halluzinieren und viele Nutzer:innen zusätzlich die schwächeren Modellvarianten ohne Reasoning nutzen dürften, speziell, wenn sie sich direkt mit dem Modell unterhalten. Diese Risiken ignoriert OpenAI freilich im neu veröffentlichten Werbefilm.
Der Medienkonzern wird der erste große Content-Partner für OpenAIs Videoplattform Sora. CEO Bob Iger verteidigt den Deal gegen Kritik aus der Kreativbranche und zieht Parallelen zur Einführung von iTunes.