Inhalt
summary Zusammenfassung

OpenAI hat DALL-E 3 für alle ChatGPT Plus- und Enterprise-Benutzer bereitgestellt. Künstlerinnen und Künstler können ihre Werke aus dem Datensatz extrahieren - aber nur für zukünftige Modelle.

Anzeige

OpenAIs neue Bild-KI DALL-E 3 ist ab sofort für alle ChatGPT Plus und ChatGPT Enterprise-Nutzenden verfügbar. Als Anwendungsbeispiele nennt OpenAI die Visualisierung von Website-Designs und Konzepten für Firmenlogos.

Der Bing Image Creator bietet weiterhin freien Zugang für alle mit einem Microsoft-Account, ist aber nicht in einen Chat integriert, sehr restriktiv bei der Annahme von Bildern und bietet nur das Seitenverhältnis Quadrat. Das komplette DALL-E-3-Paket gibt es derzeit nur bei OpenAI.

DALL-E 3 wurde mit präziseren Bildbeschriftungen trainiert

OpenAI enthüllt auch das Geheimnis des größten Fortschritts von DALL-E 3, nämlich dass die Bild-KI Texteingaben viel genauer verfolgt als bestehende Systeme. Dazu hat OpenAI zunächst eine Bild-Beschriftungs-KI trainiert und diese dann auf die Trainingsbilder angewandt, um bessere Bildbeschriftungen zu erhalten. Mit diesen maschinell neu beschrifteten Bildern wurde dann die Bild-KI trainiert.

Anzeige
Anzeige

Die These hinter diesem Prozess war, dass bisherige Bildsysteme nicht in der Lage waren, Prompts genau zu folgen, da die Bildbeschriftungen nicht gut genug waren.

OpenAI kündigt außerdem die Entwicklung eines Bildklassifikators an, der in internen Tests bei unbearbeiteten Bildern 99 Prozent der mit DALL-E 3 generierten Bilder erkannte. Bei einfachen Bildbearbeitungen wie Beschneiden, Komprimieren, Größenänderung erkennt der Klassifikator immer noch 95 Prozent der mit DALL-E 3 erzeugten Bilder.

Allerdings liefert das Tool nur eine Wahrscheinlichkeit und keine definitive Klassifikation. Es könne ein Werkzeug in einer Werkzeugkasten von Technologien sein, die helfen, KI-generierte Medien zu erkennen, schreibt OpenAI. Das Thema sei eine Herausforderung, die eine plattformübergreifende Zusammenarbeit vieler Anbieter erfordere. Dem Themenkomplex Sicherheit widmet OpenAI eine eigene Dokumentation.

Künstler können sich aus dem Datensatz austragen

Darüber hinaus stellt OpenAI ein Formular online, mit dem Künstlerinnen und Künstler ihre Bilddaten aus dem Datensatz für das künftige Training von Bild-KI-Modellen entfernen können.

"Wir verstehen, dass einige Eigentümer von Inhalten nicht möchten, dass ihre öffentlich zugänglichen Werke für das Training unserer Modelle verwendet werden", schreibt OpenAI. Der einfachste Weg sei, "GPTBot" daran zu hindern, die eigenen Daten zu durchsuchen.

Empfehlung

Alternativ können Künstlerinnen und Künstler auch Aufnahmen einzelner Werke einsenden, die aus dem Datensatz entfernt werden sollen, mit dem künftige Modelle trainiert werden. OpenAI bietet keine Möglichkeit, Daten aus dem bereits trainierten DALL-E 3 zu entfernen. Wahrscheinlich wäre dies technisch nicht oder nur mit großem Aufwand möglich.

 

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • OpenAI hat seine verbesserte Bild-KI DALL-E 3 für ChatGPT Plus- und Enterprise-Benutzer veröffentlicht.
  • Die Bild-KI folgt Texteingaben viel genauer. Der Fortschritt basiert auf einer speziell trainierten Bild-Beschriftungs-KI, die hochwertigere Bild-Beschriftungen für die Bilder des DALL-E 3 Trainings generiert hat.
  • OpenAI arbeitet an einem Bildklassifikator zur Erkennung von KI-generierten Bildern und ermöglicht Künstlern, ihre Werke aus zukünftigen Datensätzen zu entfernen, jedoch nicht aus dem bereits trainierten DALL-E 3.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!