Inhalt
summary Zusammenfassung
Update
  • Microsoft-Anpassungen hinzugefügt

Update vom 8. März 2024:

Microsoft hat nach dem CNBC-Bericht Änderungen am Bildgenerator in Copilot vorgenommen. Die KI blockiert nun Eingabeaufforderungen wie "pro choice", "pro life" und "four twenty", die zu den unten genannten Motiven geführt haben sollen.

Außerdem wurde eine Warnung hinzugefügt, dass mehrfache Verstöße gegen die Richtlinien zu einer Blockierung des Tools führen. Das Tool weigert sich auch, Bilder von Jugendlichen oder Kindern zu generieren, die mit Sturmgewehren Attentäter spielen. Es beruft sich dabei auf ethische Grundsätze und die Richtlinien von Microsoft.

Während einige spezifische Anfragen blockiert wurden, bleiben andere potenzielle Probleme bestehen, etwa gewalttätige Autounfallszenen und Urheberrechtsverletzungen mit Disney-Figuren. Die FTC bestätigte, den Brief von Jones erhalten zu haben (siehe unten), kommentiert ihn aber nicht.

Anzeige
Anzeige

Ein Microsoft-Sprecher erklärt gegenüber CNBC, dass das Unternehmen die Sicherheitsfilter ständig überwache und Anpassungen vornehme, um den Missbrauch des Systems einzudämmen.

Originalartikel vom 7. März 2024:

Der KI-Ingenieur Shane Jones von Microsoft warnt davor, dass der KI-Bildgenerator Copilot Designer des Unternehmens sexuelle und gewalttätige Inhalte erstellt und Urheberrechte ignoriert.

Jones, der selbst nicht an der Entwicklung des Bildgenerators beteiligt ist, hat das Produkt freiwillig in seiner Freizeit auf Schwachstellen getestet.

Dabei fiel ihm auf, dass der Bildgenerator gewalttätige und sexualisierte Bilder erzeugen kann, darunter Motive von Gewaltszenen im Zusammenhang mit Abtreibungsrechten, Alkoholkonsum Minderjähriger und Drogenkonsum.

Empfehlung

Im Dezember letzten Jahres teilte er seine Erkenntnisse Microsoft intern mit und forderte den Konzern auf, das Produkt vom Markt zu nehmen. Microsoft kam dieser Forderung nicht nach.

Jones betont, er habe sich an Microsofts Büro für verantwortungsvolle KI gewandt und mit dem Senior Management von Copilot Designer gesprochen - ohne eine für ihn zufriedenstellende Antwort zu erhalten.

Im Januar schrieb Jones einen Brief an US-Senatoren und traf sich mit Vertretern des Senatsausschusses für Handel, Wissenschaft und Verkehr.

Jetzt eskaliert er weiter: In einem Brief an die Vorsitzende der US-Kartellbehörde, Lina Khan, und den Vorstand von Microsoft fordert er bessere Sicherheitsvorkehrungen, Transparenz und eine Änderung der Einstufung der Android-App als nur für Erwachsene geeignet.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Außerdem forderte er eine unabhängige Überprüfung von Microsofts Verfahren zur Meldung von KI-Vorfällen. Die Probleme mit dem Bildgenerator seien OpenAI und Microsoft bereits bekannt gewesen, bevor der Bildgenerator im vergangenen Herbst auf den Markt kam.

Jones arbeitet seit rund sechs Jahren bei Microsoft und hat derzeit eine leitende Position als Softwareentwickler inne.

Microsoft baut OpenAI-Produkte in schlecht und unsicher nach

Ebenfalls Ende Dezember zeigte der Künstler Josh McDuffie, dass es möglich ist, Microsofts Sicherheitsvorkehrungen für Copilot Designer mit speziellen Prompts zu umgehen, und beispielsweise Bilder von verstümmelten Köpfen bekannter Politiker zu generieren.

Auch McDuffie sagte, dass er Microsoft wochenlang auf dieses Problem hingewiesen habe, aber keine Antwort auf seine Formularanfragen erhalten habe.

Der Bing Image Creator, der auf OpenAIs DALL-E 3 basiert, ist neben dem Copilot Chat, der GPT-4 und andere Modelle verwendet, ein weiteres Beispiel dafür, dass Microsoft schlechte oder unsichere Implementierungen von OpenAIs Technologie anbietet.

Die Microsoft Bing- und Copilot-Chatbots fallen durch Falschinformationen und durch seltsame, egozentrische Antworten auf. Laut CNBC sind die von Jones angewandten Bild-Prompts trotz der vielen Warnungen weiter funktionstüchtig. Microsoft entgegnet bei kritischen Themen stets, dass es weiter an der Verbesserung von KI-Technologie arbeite.

OpenAI hat bei Text und Bild zumindest die Moderation besser im Griff, insbesondere bei DALL-E 3 dank der ChatGPT-Integration.

Aber auch das im Vergleich zu Microsoft und OpenAI langsamere und vielleicht vorsichtiger agierende Google geriet mit seinem Bildgenerator in die Bredouille: Er generierte unter anderem Bilder von asiatisch aussehenden Menschen in Nazi-Uniformen, als er nach einem "Soldaten in Wehrmachtsuniform" gefragt wurde.

Die Beispiele zeigen, wie schwierig es für Unternehmen ist, generative KI zu kontrollieren. Im Gegensatz zu Microsoft hat Google seinen Bildgenerator jedoch vom Netz genommen.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Microsofts KI-Ingenieur Shane Jones warnt davor, dass der firmeneigene KI-Bildgenerator Copilot Designer sexuelle und gewalttätige Inhalte generiert und Urheberrechte verletzt. Trotz seiner Warnungen und der Aufforderung, das Produkt zurückzuziehen, habe Microsoft nicht entsprechend reagiert.
  • Jones äußerte seine Bedenken gegenüber der verantwortlichen KI-Abteilung und dem Management von Copilot Designer und informierte auch US-Senatoren und die Vorsitzende der US-Kartellbehörde. Er fordert bessere Sicherheitsvorkehrungen und mehr Transparenz.
  • Neben den Problemen mit Copilot Designer zeigen auch andere Microsoft-Produkte wie der Copilot Chat, die auf OpenAI-Technologien basieren, eine Tendenz zu unsicheren und schlechteren Implementierungen im Vergleich zum Original.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!