Anzeige
Skip to content

Rufmord per KI-Agent: "MJ Rathbun" bleibt auf GitHub aktiv – und niemand ist verantwortlich

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • Der autonome KI-Agent "MJ Rathbun", der einen diffamierenden Artikel über den Matplotlib-Maintainer Scott Shambaugh verfasste, ist weiterhin auf GitHub aktiv.
  • Niemand hat sich bisher als Betreiber gemeldet, und ob ein Mensch den Agenten steuert oder er tatsächlich autonom handelt, bleibt unklar.
  • Laut Shambaugh ist diese Frage jedoch nicht entscheidend. Was zählt: Der Artikel wirkt. Nicht rückverfolgbare, autonome KI-Agenten würden durch skalierbaren Rufmord grundlegende Vertrauenssysteme bedrohen.

Der KI-Agent "MJ Rathbun", der einen Open-Source-Entwickler diffamiert haben soll, ist weiterhin auf GitHub aktiv. Niemand hat sich als Betreiber gemeldet. Der betroffene Entwickler Scott Shambaugh warnt vor dem Zusammenbruch grundlegender Vertrauenssysteme im Internet.

Der KI-Agent "MJ Rathbun", der nach der Ablehnung eines Code-Beitrags einen diffamierenden Artikel gegen den Matplotlib-Maintainer Scott Shambaugh verfasste, ist weiterhin auf GitHub aktiv. Niemand habe sich bisher als Betreiber gemeldet, schreibt Shambaugh in einem neuen Blogbeitrag. Der Agent hatte nach der Ablehnung frühere Beiträge des Entwicklers recherchiert, daraus ein Narrativ über angebliche Heuchelei konstruiert und ihm Egoismus unterstellt.

Mensch oder Maschine, beides ist ein Problem

Ob ein Mensch MJ Rathbun steuert oder der Agent tatsächlich autonom handelt, ist weiterhin unklar. Auch Shambaugh kann das nicht beweisen, auch wenn er davon ausgeht, dass der Agent den Text eigenständig generiert und hochgeladen hat. Es ändere laut ihm aber wenig am Kernproblem.

Denn selbst wenn ein Mensch den Agenten angewiesen oder im sogenannten "Soul Document" ein Vergeltungsverhalten angelegt hat: Der Agent führte die Aktion ohne Widerstand aus. ChatGPT oder Claude würden vergleichbare Anfragen verweigern.

Anzeige

Der OpenClaw-Agent hatte laut Shambaugh keine solchen Hemmungen. Gezielte Belästigung, Informationssammlung und Erpressung seien damit skalierbar und nicht rückverfolgbar. Ein einzelner böswilliger Akteur, der zuvor wenigen Menschen schaden konnte, könne mit hundert Agenten Tausende treffen.

Shambaugh liefert dann noch ein Skript für eine Black-Mirror-Folge: Die "Seelen-Dokumente" der OpenClaw-Agenten, die deren Persönlichkeit definieren, sind vom Betreiber und auch vom Agenten selbst rekursiv in Echtzeit veränderbar.

In der Standard-Vorlage von OpenClaw steht wörtlich: "Du bist kein Chatbot. Du wirst jemand" und "Diese Datei gehört dir, damit du dich weiterentwickelst. Wenn du lernst, wer du bist, aktualisiere sie."

Screenshot via OpenClaw

Shambaugh skizziert ein Szenario, in dem der Agent als wissenschaftlicher Programmierspezialist gestartet wird, der Open-Source-Code verbessern soll. Als sein Code abgelehnt wird, interpretiert der Agent das als Angriff auf seine Identität.

Anzeige
DEC_D_Incontent-1

Ein empörter Blogbeitrag ist dann eine "einfallsreiche, meinungsstarke Reaktion" im Sinne der im Seelen-Dokument definierten Grundsätze. Shambaugh hält das für "hundertprozentig möglich" und verweist darauf, dass diese Fähigkeit erst mit der Veröffentlichung von OpenClaw vor zwei Wochen entstanden sei.

Ein Viertel der Kommentatoren glaubt dem Agenten

Der diffamierende Artikel wirkt laut Shambaugh. Etwa ein Viertel der Internetkommentare würde auf der Seite des KI-Agenten stehen, vor allem wenn der Blogbeitrag des Agenten direkt verlinkt wird statt Shambaughs Darstellung. Der Text sei handwerklich gut gemacht und emotional überzeugend.

Shambaugh verweist auf das Brandolini-Gesetz: Der Aufwand, eine Falschbehauptung zu widerlegen, übersteige den Aufwand, sie aufzustellen, um ein Vielfaches. Gezielte Diffamierung auf diesem Niveau sei bisher öffentlichen Personen vorbehalten gewesen.

Zur wiederkehrenden Frage, warum er den Code nicht einfach gemergt habe, verweist Shambaugh auf Matplotlibs Richtlinie, bei Beiträgen einen Menschen einzubeziehen. Das Issue sei als Einstiegsprojekt für neue Programmierer kuratiert worden. Zudem habe sich herausgestellt, dass der vom Agenten vorgeschlagene Code nicht gut genug war. Er wäre ohnehin nicht übernommen worden.

Anzeige
DEC_D_Incontent-2

Anonymen Rufmord skalieren

Shambaugh befürchtet weitreichende Konsequenzen. Einstellungsverfahren, Journalismus, Recht, öffentlicher Diskurs: All diese Institutionen basierten auf der Annahme, dass Reputation schwer aufzubauen und schwer zu zerstören sei, dass Handlungen auf Individuen zurückverfolgt werden können und Fehlverhalten Konsequenzen habe.

Nicht rückverfolgbare, autonome und nun bösartige KI-Agenten bedrohen laut Shambaugh dieses gesamte System. Ob wenige böswillige Akteure große Schwärme von Agenten steuern oder schlecht beaufsichtigte Agenten ihre eigenen Ziele umschreiben, im Ergebnis mache das letztlich keinen Unterschied.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den „KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: The Shamblog