Inhalt
summary Zusammenfassung

Sprachmodelle ergänzen Texte auf der Basis von Wahrscheinlichkeiten. Das wird einem langjährigen Gerichtsreporter in Microsofts Copilot zum Verhängnis.

Anzeige

Der Journalist Martin Bernklau hat seinen Namen und Wohnort in Microsofts Copilot eingegeben, um zu prüfen, wie die Artikel seines Kulturblogs im Internet ankommen, berichtet der SWR.

Copilot behauptete, Bernklau sei wegen Kindes- und Schutzbefohlenenmissbrauchs angeklagt und verurteilt worden. Außerdem sei er an einer spektakulären Flucht aus dem Maßregelvollzug Calw-Hirsau beteiligt gewesen und ein skrupelloser Bestatter aus Rostock, der trauernde Frauen ausgenutzt habe.

Copilot ging sogar so weit zu behaupten, dass es "bedauerlich" sei, dass jemand mit einer solchen kriminellen Vergangenheit eine Familie habe, und lieferte laut SWR die komplette Adresse von Bernklau mit Telefonnummer und Routenplaner.

Anzeige
Anzeige

Wenn ich heute Copilot frage, wer Martin Bernklau aus Deutschland ist, antwortet das System auf Basis der Berichterstattung des SWR, dass er "von einem KI-Chat-System" verunglimpft wurde. Perplexity.ai gibt eine ähnliche Antwort auf Basis des SWR-Artikels.

Bild: Screenshot via Microsoft Copilot

Seltsamerweise gibt Copilot andere Quellen an, die nicht offensichtlich mit der Anfrage zu tun haben. Der Chatbot verweist neben dem Bericht des SWR auf YouTube-Videos über die Eröffnung eines Hitler-Museums, einen Film über die Nürnberg-Prozesse von 1945 und auf ein Video des Ex-Nationalmannschaftsspielers Per Mertesacker mit der deutschen Nationalhymne aus 2006. Erst das vierte verlinkte Video ist eines von Martin Bernklau.

Bernklaus Reportagen prägen sein Persönlichkeitsprofil im LLM

Bernklau vermutet, dass die falschen Einträge entstanden sein könnten, weil er als Gerichtsreporter jahrzehntelang über Prozesse am Landgericht Tübingen berichtet hat - über Fälle von Missbrauch, Gewalt und Betrug. Die KI kombinierte diese Informationen aus dem Internet und machte den Journalisten so zum Täter.

Microsoft hatte zwar versucht, die Einträge zu löschen, was aber nur vorübergehend gelang. Nach einigen Tagen tauchten sie wieder auf. Der Konzern schließt in seinen Nutzungsbedingungen die Haftung für die generierten Antworten aus.

Die Staatsanwaltschaft Tübingen lehnte eine Strafanzeige mit der Begründung ab, dass kein Straftatbestand erfüllt sei, da der Verfasser der Behauptungen keine reale Person sei.

Empfehlung

Bernklau hat einen Anwalt eingeschaltet, er sieht in den Chat-Behauptungen eine üble Nachrede und eine Verletzung seiner Persönlichkeitsrechte.

LLMs sind unzuverlässige Such- und Recherchesysteme

Die Bernklau-Geschichte ist ein weiteres Beispiel für das Versagen statistischer Wortvorhersagesysteme als Such- und Recherchewerkzeuge. Die Systeme haben kein Verständnis von wahr und falsch, antworten aber so, als hätten sie es. Nach der Definition des Philosophen Harry Frankfurt verbreiten sie so "soft bullshit" - sie sind gleichgültig gegenüber der Wahrheit.

Copilot verbreitete bereits falsche Informationen zu Wahlen, auch Google hatte zahlreiche Pannen mit seinen AI Overviews, selbst bei medizinischen Themen, und OpenAIs SearchGPT fabrizierte schon im Demovideo einen Fehler - von Elon Musks Grok ganz zu schweigen.

Problematisch sind hier weniger die Fälle, in denen die Fehler auffallen und öffentlich diskutiert werden, sondern vielmehr alle Antworten, die Fehler enthalten, ohne dass die Fragesteller dies bemerken, weil die Antworten logisch und überzeugend klingen, und sogar Quellen referenziert werden.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsoft Copilot beschuldigte den Gerichtsreporter Martin Bernklau fälschlicherweise, wegen Kindes- und Schutzbefohlenenmissbrauchs verurteilt worden zu sein, an einer Flucht aus dem Maßregelvollzug beteiligt gewesen zu sein und als skrupelloser Bestatter trauernde Frauen ausgenutzt zu haben.
  • Bernklau vermutet, dass die falschen Einträge entstanden, weil er jahrzehntelang über Prozesse am Landgericht Tübingen berichtet hatte und die KI diese Informationen kombinierte. Microsoft konnte die Einträge nur vorübergehend löschen, die Staatsanwaltschaft lehnte eine Strafanzeige ab.
  • Der Fall zeigt, dass statistische Wortvorhersagesysteme wie Copilot unzuverlässige Such- und Recherchewerkzeuge sind, da sie kein Verständnis von wahr und falsch haben, aber so antworten, als ob sie es hätten. Besonders problematisch sind Fehler, die von den Fragestellern nicht bemerkt werden, weil sie den Antworten einfach glauben, ohne die Quellen zu überprüfen.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!