Anzeige
Skip to content
Read full article about: Inception meldet sich mit neuem KI-Modell zurück

Inception lebt. Das KI-Start-up, dessen Belegschaft CEO und Deepmind-Mitgründer Mustafa Suleyman einst an Microsoft verschachert hat, um sich danach dem Schreiben langer Blogposts über Superintelligenz zu widmen, ist zurück – mit 50 Millionen US-Dollar frischem Kapital. Die Finanzierung wurde von Menlo Ventures angeführt, mit dabei sind Microsofts M12, Nvidia, Databricks und Snowflake.

Inception konzentriert sich nun auf sogenannte Diffusionsmodelle (dLLMs), die nicht wie klassische Sprach-KIs Wort für Wort Text generieren, sondern Inhalte stufenweise verfeinern. Die Technik kennt man bisher primär aus der Bildgenerierung. Inception will sie jetzt auf Text und Code übertragen.

Das hauseigene Modell heißt Mercury und schafft laut Unternehmen mehr als 1.000 Token pro Sekunde. Herkömmliche autoregressive Modelle, die ein Wort nach dem anderen schreiben – etwa GPT‑5 –, erreichen dagegen nur 40 bis 60 Token. Google hatte mit Gemini Diffusion im Mai 2025 ein ähnliches Modell vorgestellt.

Mercury ist über Partner wie OpenRouter und Poe verfügbar und kostet 0,25 Dollar pro Million Eingabetokens sowie 1 Dollar für Ausgabetokens – also mit einem klaren Geschwindigkeits- und Preisvorteil gegenüber klassischen LLMs.

ChatGPTs API und Web-Version nutzen laut Studie völlig verschiedene Quellen

Eine aktuelle Studie zeigt deutliche Unterschiede in ChatGPTs Nachrichtenempfehlungen: Während die API überwiegend auf enzyklopädische Inhalte verweist, bevorzugt das Web-Interface lizenzierte Medien – in Deutschland häufig Angebote aus dem Springer-Verlag.

Wie genau OpenAIs KI-Modell seine Quellen auswählt, bleibt jedoch weitgehend intransparent und erinnert in seiner Undurchsichtigkeit an Googles Vorgehen, mit dem Unterschied, dass Google zumindest darauf ausgelegt ist (oder war), dass Nutzer die Originalquellen tatsächlich anklicken.

OpenAI-Konkurrent Anthropic plant Umsatzwachstum von 4,7 auf 70 Milliarden Dollar bis 2028

Anthropic plant ein beispielloses Umsatzwachstum: Von 4,7 Milliarden Dollar im Jahr 2025 soll der Umsatz bis 2028 auf 70 Milliarden steigen. Möglich machen sollen das eine stark verbesserte Bruttomarge, der Fokus auf API-Verkäufe an Unternehmen und das Entwickler-Tool Claude Code. Die Prognosen sind extrem ehrgeizig und könnten das Narrativ einer KI-Blase weiter befeuern.

Anzeige
Read full article about: OpenAI: Öffentlichkeit unterschätzt KI-Fortschritt massiv

Laut OpenAI sind eure Aufgaben zu banal, um den KI-Fortschritt noch zu bemerken. Die meisten Menschen würden KI noch als Chatbots oder bessere Suchmaschinen sehen, obwohl die Systeme bereits komplexe Denkaufgaben lösen können, die früher nur von Experten in einer oder mehreren Stunden bewältigt wurden. Die öffentliche Wahrnehmung sei hinter der tatsächlichen Entwicklung zurück, schreibt das Unternehmen.

Bald erwarten wir Systeme, die Aufgaben erledigen können, für die ein Mensch Tage oder Wochen braucht; wir wissen nicht, wie wir über Systeme denken sollen, die Aufgaben lösen könnten, für die ein Mensch Jahrhunderte bräuchte.

In den nächsten Jahren erwartet OpenAI Systeme, die selbstständig neue Entdeckungen machen können – zunächst kleine ab 2026, ab 2028 auch größere. Laut OpenAI ist der „Preis pro Intelligenzeinheit“ in den vergangenen Jahren circa um das 40-Fache pro Jahr gesunken. Bei dieser Rate könnten künftig auch Aufgaben automatisiert werden, die heute noch Wochen menschlicher Arbeit erfordern.

Read full article about: Ein Kinderbuch zeigt das Dilemma der kommerziellen Nutzung von KI-Bild-Generatoren 

Der Unternehmer Niels Hoven veröffentlichte ein Alphabetbuch mit fast 1000 KI-Illustrationen – aus seiner Sicht zu aufwendig für menschliche Künstler. Bei etwa zwei Stunden pro Bild hätte die Produktion rund 50.000 Dollar gekostet. In sozialen Medien und Amazon-Kommentaren gab es für diese Entscheidung Kritik.

Der Streit um KI-Bildgeneratoren, ausgedrückt in einem Screenshot. Laut jüngster Rechtsprechung aus UK ist KI-Datentraining keine Copyright-Verletzung. | via X

Hoven verteidigt sich: Ohne KI hätte das Hardcover rund 200 Dollar kosten müssen. Dank generativer KI könne das Buch als kostenloses PDF erscheinen und für 30 Dollar als Hardcover verkauft werden. Laut Hoven gehe der gesamte Betrag an Amazon für Druck und Versand, er selbst verdiene daran nichts. Das Buch sei ohne KI nicht möglich gewesen und solle Kindern beim Lesenlernen helfen. Zur Wahrheit gehört auch, dass es Werbung für sein Unternehmen ist, das eine entsprechende Lern-App vertreibt.

Anzeige

KI-generierte OP-Videos: Optisch überzeugend, medizinisch katastrophal

Forschende haben Googles neueste Video-KI Veo 3 mit chirurgischen Aufnahmen getestet – und eine deutliche Kluft zwischen optischer Brillanz und medizinischem Verständnis festgestellt. Das System erzeugt verblüffend plausible Bilder, die fachlich oft keinen Sinn ergeben.

Tech-Konzerne nehmen für KI-Ausbau Rekordschulden auf

Technologiekonzerne wie Google, Meta, Microsoft und Amazon geben aktuell enorme Summen für den Ausbau ihrer KI-Infrastruktur aus. Die Bank of England warnt: „Das ist ein sich schnell entwickelndes Thema, und die Zukunft ist äußerst ungewiss“, schrieb die Bank Ende Oktober.

Read full article about: Der „Charakter“ von GPT-4o kommt nicht zurück, weil er zufällig entstanden ist

Ein als "Roon" auf X bekannter OpenAI-Entwickler erklärt, warum der "Charakter" eines LLMs nicht reproduzierbar ist. Laut Roon (via JB) kann sich die Persönlichkeit eines Modells bei jedem Trainingslauf verändern, auch wenn die Daten identisch bleiben. Grund dafür sind zufällige Faktoren im Trainingsprozess, etwa beim Reinforcement Learning (RL), die zu leicht abweichenden Ergebnissen führen. Diese Unterschiede entstehen durch zufällige Entscheidungen im sogenannten Modellraum.

OpenAI versuche laut Roon, diese sogenannten "Personality Drifts" möglichst gering zu halten, da Nutzer oft eine emotionale Bindung zu bestimmten Modellen entwickeln; so geschehen beim "Speichellecker"-Modell GPT-4o, das einige Menschen vermissen (Roon nicht; er wünschte dem Modell mangels Alignment „den Tod” und löschte den Tweet später). Dennoch sei es selbst innerhalb eines Trainingslaufs schwierig, exakt dieselbe Persönlichkeit wiederherzustellen.

Anzeige

Studie deckt massive Schwächen in KI-Benchmarks auf

Ein internationales Forschungsteam hat die Validität von Large-Language-Model-Benchmarks systematisch untersucht und dabei erhebliche Mängel aufgedeckt. Die Analyse von 445 Benchmark-Artikeln aus führenden KI-Konferenzen zeigt, dass fast alle Bewertungsverfahren fundamentale methodische Schwächen aufweisen.