Themen Hub KI und Gesellschaft
Künstliche Intelligenz ist eine Schlüsseltechnologie, die uns helfen kann, eine Vielzahl gesellschaftlicher Herausforderungen zu lösen, darunter Klimawandel, Energieversorgung, Gesundheitswesen, Bildung oder Logistik. KI kann ausgewählte Probleme effektiver lösen, indem sie uns bei der Entscheidungsfindung unterstützt, Lösungsansätze automatisiert und damit skaliert oder völlig neue Lösungen entdeckt. Doch der Einsatz von KI birgt auch neue Risiken, etwa bei der Überwachung oder in Fragen gesellschaftlicher Gerechtigkeit.
Was macht unsere Gesellschaft mit KI – und was macht KI aus unserer Gesellschaft? Diese Frage beleuchten wir in der Kategorie KI und Gesellschaft.
"Es ist eine der tiefgreifendsten Illusionen unserer Zeit, dass die meisten Menschen diesen Dingen [großen Sprachmodellen] Verständnis zuschreiben, das sie gar nicht haben", sagt LLM-Hype-Kritiker Gary Marcus im Gespräch mit Schachgroßmeister Garry Kasparov.
Er führt ein Beispiel auf: "Sie können die Regeln des Schachspiels wiedergeben, weil sie Texte erzeugen, die auf anderen Texten basieren. Aber wenn es darum geht, das Spiel tatsächlich zu spielen, fehlt ihnen ein internes Modell davon, was vor sich geht."
Für Marcus ist diese Diskrepanz zwischen performativer Kompetenz und fehlendem semantischen Verständnis der Kern der aktuellen KI-Verblendung. Die vermeintliche Intelligenz großer Sprachmodelle sei lediglich eine statistisch fundierte Imitation – eine "Illusion von Intelligenz", erzeugt durch extreme Datenmengen und Musterabgleich.
Apple wird in Kalifornien von den US-Autor:innen Grady Hendrix und Jennifer Roberson wegen Urheberrechtsverletzung verklagt. Die Klage wirft Apple vor, Bücher ohne Zustimmung genutzt zu haben, um KI-Modelle wie OpenELM und Apple Intelligence zu trainieren. Konkret soll Apple das als Raubkopie bekannte Books3-Datenset verwendet haben, das über 196.000 Bücher enthält – darunter die Werke der Kläger. Apple soll zudem Webseiten über Applebot kopiert und Inhalte aus sogenannten Schattenbibliotheken bezogen haben.
Die Kläger fordern Schadenersatz und ein Verbot der Nutzung ihrer Werke. Die Sammelklage folgt ähnlichen Vorwürfen gegen andere KI-Firmen wie Anthropic, die sich außergerichtlich mit den Klägern geeinigt hat, da die Autoren gute Aussichten hatten, den Rechtsstreit zu gewinnen.
Warner Bros. Discovery verklagt das KI-Bildgenerator-Unternehmen Midjourney wegen Urheberrechtsverletzung vor einem Bundesgericht in Kalifornien. Das Studio wirft Midjourney vor, sein Geschäft auf dem "massenhaften Diebstahl von Inhalten" aufzubauen und urheberrechtlich geschützte Figuren wie Superman, Wonder Woman, Batman, Bugs Bunny und Rick and Morty zu verwenden. Warner Bros. Discovery schließt sich Disney und Universal an, die bereits früher in diesem Jahr ähnliche Klagen eingereicht haben. Die Klage zeigt Vergleiche zwischen Midjourney-Ausgaben und Original-Filmbildern, etwa von Christian Bales Batman aus "The Dark Knight". Das KI-Tool gibt selbst bei allgemeinen Anfragen wie "klassischer Comic-Superhelden-Kampf" Warner-Figuren aus. Midjourney hat vier kostenpflichtige Abonnements zwischen 10 und 120 Dollar pro Monat. Das Unternehmen äußerte sich zunächst nicht zu den Vorwürfen. Warner Bros. Discovery fordert Schadenersatz von bis zu 150.000 Dollar pro verletztem Werk.
OpenAI will im kommenden Jahr eine neue KI-gestützte Jobplattform starten und ein Zertifizierungsprogramm für KI-Kompetenzen einführen. Ziel ist es, Unternehmen und Behörden mit passenden Fachkräften zu verbinden. Unterstützt wird das Projekt laut Bloomberg unter anderem vom US-Einzelhandelsriesen Walmart. Bis 2030 sollen zehn Millionen Menschen in den USA zertifiziert werden. Vorgestellt wurden die Pläne bei einem KI-Bildungstreffen im Weißen Haus unter Teilnahme von OpenAI-Chef Sam Altman und anderen Tech-CEOs. Auf dieser Jobplattform sollen Bewerber ihre Fähigkeiten nachweisen und gezielt vermittelt werden. Dadurch soll die vermutete disruptive Wirkung der stärkeren Verbreitung von KI in zahlreichen Berufen abgefedert und wohl vor allem Image-Arbeit für OpenAI betrieben werden.
Sprachmodelle in militärischen Planspielen neigen zur Eskalation, sogar bis zum Atomkrieg.
„Die KI spielt immer Curtis LeMay“, sagt Jacquelyn Schneider von der Stanford University im Gespräch mit Politico über ihre Experimente mit Sprachmodellen in militärischen Planspielen. LeMay war ein US-General im Kalten Krieg, bekannt für seine Bereitschaft, Atomwaffen einzusetzen. „Es ist fast so, als würde die KI Eskalation verstehen, aber keine Deeskalation. Wir wissen nicht wirklich, warum das so ist.“
Die KI-Modelle reagierten in den Simulationen mit einer auffälligen Neigung zur Eskalation – oft bis zum Einsatz von Atomwaffen. Schneider und ihr Team vermuten, dass die Ursache im Trainingsmaterial liegt: LLMs lernen aus vorhandener Literatur, und die ist stark auf Konflikt- und Eskalationsverläufe ausgerichtet. Friedlich gelöste Krisen wie die Kuba-Krise sind kaum dokumentiert. Der Mangel an „Nicht-Ereignissen“ im Datensatz macht Deeskalation für KI schwerer nachvollziehbar. Die Experimente wurden allerdings mit älteren Sprachmodellen wie GPT-4, Claude 2 und Llama-2 durchgeführt.