Short

Versicherer am Lloyd’s-Markt in London bieten erstmals spezielle Policen an, die Schäden durch Fehler von KI-Chatbots abdecken. Entwickelt wurde das Produkt vom Start-up Armilla, das von Y Combinator unterstützt wird. Die Versicherung greift, wenn ein Unternehmen wegen fehlerhafter KI-Leistung verklagt wird – etwa durch Kunden, die durch falsche Auskünfte oder sogenannte „Halluzinationen“ der KI geschädigt wurden. Abgedeckt sind unter anderem Anwaltskosten und Schadenersatz. Ein Beispiel ist Air Canada: Ein Chatbot hatte einen nicht existierenden Rabatt versprochen, den die Airline später einlösen musste. Laut Armilla hätte die neue Police in einem solchen Fall gegriffen, wenn die Leistung des Bots deutlich unter den Erwartungen lag. Laut Karthik Ramakrishnan, CEO von Armilla, soll das Produkt Unternehmen den Einstieg in KI erleichtern. Bestehende Technologieversicherungen decken KI-Risiken oft nur zu geringen Teilen. Armilla versichert gezielt den Leistungsabfall von KI-Modellen.

Short

SoundCloud hat im Februar 2024 seine Nutzungsbedingungen geändert und sich darin das Recht gesichert, hochgeladene Musik für Trainingszwecke zu nutzen. Der KI-Copyright-Aktivist Ed Newton-Rex kritisiert auf X, dass Nutzer darüber nicht informiert wurden. In einer Stellungnahme erklärt SoundCloud, keine KI-Modelle mit Künstlerinhalten zu trainieren, keine eigenen KI-Tools zu entwickeln und Dritten das Scrapen zu verbieten. KI werde nur für interne Funktionen wie Empfehlungen, Betrugserkennung und Inhaltsorganisation eingesetzt. Künstler sollen weiterhin die Kontrolle über ihre Werke behalten, und alle KI-Funktionen würden laut SoundCloud im Rahmen bestehender Lizenzverträge betrieben. Ein generelles KI-Training wird in der Stellungnahme allerdings nicht ausdrücklich ausgeschlossen.

Update: Marni Greenberg, Kommunikationschefin bei SoundCloud, sagt gegenüber The Verge, dass im Fall einer künftigen Nutzung von Inhalten für generative KI klare Opt-out-Möglichkeiten geschaffen und Transparenz gewahrt werde – und bestätigt damit, dass ein solches Training künftig möglich ist.

Anzeige
Short

US-Präsident Donald Trump hat Shira Perlmutter, Leiterin des US-Copyright-Office, entlassen – kurz nach Veröffentlichung eines Berichts, der eine pauschale "Fair Use"-Regelung für KI-Trainingszwecke ablehnt. Diese Haltung widerspricht Interessen des Trump-Vertrauten Elon Musk und weiten Teilen der KI-Branche. Joseph Morelle, ranghöchster Demokrat im Ausschuss für Verwaltung des Repräsentantenhauses, kritisiert den Schritt als rechtswidrig. Perlmutter war seit 2020 im Amt. Ihre Entlassung kurz nach Veröffentlichung des kritischen Berichts sei "sicher kein Zufall", so Morelle.

Anzeige
Anzeige
Google News