Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Mit Midjourney startet kurz nach DALL-E 2 eine weitere Bild-KI in die offene Beta. Zeitgleich gehen ein neuer Bildalgorithmus und weitere Verbesserungen an den Start.

OpenAIs DALL-E 2 ist derzeit der Platzhirsch unter den Bild-KIs und das mit deutlichem Abstand, wie der Prompt-Guide von MIXED-Redakteur Maximilian Schreiner zeigt. In der vergangenen Woche kündigte OpenAI den Start der offenen Beta an sowie die Preise.

Jetzt zieht mit Midjourney der bis dato stärkste Konkurrent mit einer offenen Beta nach.

Midjourney startet in offene Beta

Ab sofort könnt ihr Midjourney kostenlos in der offenen Beta-Version testen. Tester:innen erhalten 25 Bildbefehle kostenlos. Wer die Midjourney-Beta zuvor schon probiert und seinen Kredit aufgebraucht hat, erhält die 25 kostenlosen Bildbefehle erneut.

Anzeige
Anzeige

Der Preis von Midjourney ist etwas günstiger als der von DALL-E 2: für $10 pro Monat bekommt man 200 Prompts (DALL-E 2: $15 für 115), wobei jeder Prompt vier Designs liefert, die man dann variieren oder hochskalieren kann. Ihr könnt also rund 800 unterschiedliche Motive erstellen. Für 30 US-Dollar monatlich bekommt ihr einen unlimitierten Zugang.

Die Bilder dürft ihr kommerziell nach Belieben verwenden, mit einer Ausnahme: Falls die Bilder für ein Unternehmen mit einem Jahresumsatz von mehr als einer Million US-Dollar generiert werden, wird der unlimitierte "Corporate Membership"-Plan für 600 US-Dollar jährlich fällig. Bei dem bleiben generierte Bilder zudem privat, werden also nicht standardmäßig in eine öffentlich einsehbare Galerie geladen.

Neuer Algorithmus für die Bildgenerierung

Zusammen mit der offenen Beta-Phase launcht Midjourney die dritte Generation des eigenen Bildalgorithmus, den das Start-up als "große Veränderung" des Kernsystems bezeichnet. Neu ist das Argument "stilisieren", mit dem ihr der KI mehr oder weniger kreativen Freiraum entlang eurer Eingabe geben könnt.

Das Argument Qualität verkürzt oder verlängert den maschinellen Kreativprozess. Bei geringerer Qualität fallen weniger Kosten an und der Generierungsprozess geht schneller. Höhere Stufen können mehr Details bieten, sind dafür teurer und benötigen länger - in der experimentellen Stufe 5 bis zu fünf Minuten.

Neben dem neuen Generierungsalgorithmus hat Midjourney laut eigenen Angaben auch den Upscaler verbessert, der beim Hochskalieren jetzt weniger Bildfehler verursachen soll.

Empfehlung

Midjourney ist derzeit ausschließlich über Discord verfügbar. Über diesen Link gelangt ihr zum Beta-Programm. Im Channel #newbie könnt ihr mit dem Befehl "/imagine prompt" eure ersten Bilder generieren. Nach der Trial-Phase bekommt ihr eine Bezahlmitgliedschaft angeboten.

Mehr zu den verschiedenen Bild-KIs und wie sie sich auf den Arbeitsalltag auswirken könnten, hört ihr in unserem Podcast über KI für Bilder und Grafik.

Korrekturen:

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
  • In einer früheren Version dieses Artikels stand, dass der Corporate-Plan ab einem Umsatz von einer Milliarde US-Dollar greift. Korrekt ist, dass er ab einem Umsatz von einer Million US-Dollar greift.
  • In einer früheren Version dieses Artikels stand, dass man für 10 US-Dollar 200 Bilder generieren kann. Richtig ist, dass man für 10 US-Dollar 200 Bildbefehle bekommt. Pro Bildbefehl werden bis zu vier Bilder ausgegeben, was zu bis zu 800 unterschiedlichen Motiven führen kann.
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!