Anzeige
Skip to content
Read full article about: Inception erhält 50 Millionen US-Dollar für Diffusion-Sprachmodelle

Das KI-Start-up Inception hat 50 Millionen US-Dollar frisches Kapital erhalten. Die Finanzierung wurde von Menlo Ventures angeführt, mit dabei sind Microsofts M12, Nvidia, Databricks und Snowflake.

Inception konzentriert sich auf sogenannte Diffusionsmodelle (dLLMs), die nicht wie klassische Sprach-KIs Wort für Wort Text generieren, sondern Inhalte stufenweise verfeinern. Die Technik kennt man bisher primär aus der Bildgenerierung. Inception will sie jetzt auf Text und Code übertragen.

Das hauseigene Modell heißt Mercury und schafft laut Unternehmen mehr als 1.000 Token pro Sekunde. Herkömmliche autoregressive Modelle, die ein Wort nach dem anderen schreiben – etwa GPT‑5 –, erreichen dagegen nur 40 bis 60 Token. Google hatte mit Gemini Diffusion im Mai 2025 ein ähnliches Modell vorgestellt.

Mercury ist über Partner wie OpenRouter und Poe verfügbar und kostet 0,25 Dollar pro Million Eingabetokens sowie 1 Dollar für Ausgabetokens – also mit einem klaren Geschwindigkeits- und Preisvorteil gegenüber klassischen LLMs.

Korrektur: Eine frühere Version dieses Artikels hat Inception mit dem "Inflection.ai" verwechselt, dem Ex-KI-Start-up von Mustafa Suleyman.

Read full article about: OpenAI: Öffentlichkeit unterschätzt KI-Fortschritt massiv

Laut OpenAI sind eure Aufgaben zu banal, um den KI-Fortschritt noch zu bemerken. Die meisten Menschen würden KI noch als Chatbots oder bessere Suchmaschinen sehen, obwohl die Systeme bereits komplexe Denkaufgaben lösen können, die früher nur von Experten in einer oder mehreren Stunden bewältigt wurden. Die öffentliche Wahrnehmung sei hinter der tatsächlichen Entwicklung zurück, schreibt das Unternehmen.

Bald erwarten wir Systeme, die Aufgaben erledigen können, für die ein Mensch Tage oder Wochen braucht; wir wissen nicht, wie wir über Systeme denken sollen, die Aufgaben lösen könnten, für die ein Mensch Jahrhunderte bräuchte.

In den nächsten Jahren erwartet OpenAI Systeme, die selbstständig neue Entdeckungen machen können – zunächst kleine ab 2026, ab 2028 auch größere. Laut OpenAI ist der „Preis pro Intelligenzeinheit“ in den vergangenen Jahren circa um das 40-Fache pro Jahr gesunken. Bei dieser Rate könnten künftig auch Aufgaben automatisiert werden, die heute noch Wochen menschlicher Arbeit erfordern.

Read full article about: Ein Kinderbuch zeigt das Dilemma der kommerziellen Nutzung von KI-Bild-Generatoren 

Der Unternehmer Niels Hoven veröffentlichte ein Alphabetbuch mit fast 1000 KI-Illustrationen – aus seiner Sicht zu aufwendig für menschliche Künstler. Bei etwa zwei Stunden pro Bild hätte die Produktion rund 50.000 Dollar gekostet. In sozialen Medien und Amazon-Kommentaren gab es für diese Entscheidung Kritik.

Der Streit um KI-Bildgeneratoren, ausgedrückt in einem Screenshot. Laut jüngster Rechtsprechung aus UK ist KI-Datentraining keine Copyright-Verletzung. | via X

Hoven verteidigt sich: Ohne KI hätte das Hardcover rund 200 Dollar kosten müssen. Dank generativer KI könne das Buch als kostenloses PDF erscheinen und für 30 Dollar als Hardcover verkauft werden. Laut Hoven gehe der gesamte Betrag an Amazon für Druck und Versand, er selbst verdiene daran nichts. Das Buch sei ohne KI nicht möglich gewesen und solle Kindern beim Lesenlernen helfen. Zur Wahrheit gehört auch, dass es Werbung für sein Unternehmen ist, das eine entsprechende Lern-App vertreibt.

Read full article about: Der „Charakter“ von GPT-4o kommt nicht zurück, weil er zufällig entstanden ist

Ein als "Roon" auf X bekannter OpenAI-Entwickler erklärt, warum der "Charakter" eines LLMs nicht reproduzierbar ist. Laut Roon (via JB) kann sich die Persönlichkeit eines Modells bei jedem Trainingslauf verändern, auch wenn die Daten identisch bleiben. Grund dafür sind zufällige Faktoren im Trainingsprozess, etwa beim Reinforcement Learning (RL), die zu leicht abweichenden Ergebnissen führen. Diese Unterschiede entstehen durch zufällige Entscheidungen im sogenannten Modellraum.

OpenAI versuche laut Roon, diese sogenannten "Personality Drifts" möglichst gering zu halten, da Nutzer oft eine emotionale Bindung zu bestimmten Modellen entwickeln; so geschehen beim "Speichellecker"-Modell GPT-4o, das einige Menschen vermissen (Roon nicht; er wünschte dem Modell mangels Alignment „den Tod” und löschte den Tweet später). Dennoch sei es selbst innerhalb eines Trainingslaufs schwierig, exakt dieselbe Persönlichkeit wiederherzustellen.

Read full article about: Anthropic kommt nach Paris und München

Anthropic eröffnet neue Büros in Paris und München, um seine Präsenz in Europa auszubauen. Die Standorte ergänzen bestehende Niederlassungen in London, Dublin und Zürich. Laut Anthropic ist die EMEA-Region derzeit der am schnellsten wachsende Markt, mit einem mehr als verneunfachten Umsatz im letzten Jahr. Das Unternehmen baut für Europa ein eigenes Führungsteam auf, unter anderem mit Pip White für Nordeuropa und Thomas Remy für Südeuropa. Die neuen Büros sollen auch als regionale Zentren für Vertrieb, Partnerschaften und politische Zusammenarbeit dienen.

Mit Paris und München zählt Anthropic nun weltweit zwölf Standorte. Laut der Firma nutzen EU-Kunden wie BMW, SAP, Sanofi und Doctolib das KI-Modell Claude für Aufgaben wie Softwareentwicklung und Netzwerkmanagement. Begleitend kooperiert Anthropic mit Organisationen wie TUM.ai und Unaite.

Read full article about: Gemini-KI mit eigenen Daten: Google veröffentlicht "File Search Tool"

Google hat das File Search Tool in die Gemini-API integriert. Damit können Entwicklerinnen und Entwickler eigene Dateien über eine Vektordatenbank anbinden, um Gemini-Antworten auf konkrete Inhalte zu beziehen. Das Tool übernimmt dabei die Speicherung, Dateiaufteilung, Vektorsuche und das Einfügen der gefundenen Inhalte in eine Anfrage.

Die Nutzung ist kostenlos, abgerechnet wird nur die erste Indexierung der Daten (0,15 US-Dollar pro eine Million Tokens). Unterstützt werden Formate wie PDF, DOCX, TXT und JSON. Die Antworten enthalten automatisch Quellenverweise. Laut Google wird das Tool unter anderem für interne Suchsysteme und Chatbots eingesetzt. Dokumentation und eine Demoversion sind im Google-AI-Studio verfügbar.

Read full article about: Sechs KI-Pioniere sprechen über KI-Durchbrüche und überhöhte Erwartungen

KI-Elefantenrunde bei der Verleihung des Queen Elizabeth Prize 2025: Sechs führende Köpfe der KI-Forschung – Bill Dally, Yoshua Bengio, Fei-Fei Li, Yann LeCun, Jeff Hinton und Nvidia-CEO Jensen Huang – sprachen über persönliche Wendepunkte und die Entwicklung heutiger KI-Technologien.

Themen waren die Rolle von GPUs, große Sprachmodelle, selbstüberwachtes Lernen und der Einfluss von Bilddatensätzen wie ImageNet. Huang betonte, dass KI keine Blase sei, sondern eine neue Industrie mit wachsendem Bedarf an Rechenzentren. Li und LeCun warnten hingegen vor überzogenen Hoffnungen auf menschenähnliche Intelligenz. Die Runde war sich einig, dass KI langfristig viele Lebensbereiche prägen wird, es aber noch große wissenschaftliche Herausforderungen gibt.

Read full article about: Nvidia will das Datenproblem in der Robotik in ein Rechenproblem verwandeln

Nvidia setzt auf synthetische Daten, um die größte Hürde der Robotik zu überwinden: den Mangel an Trainingsdaten.

"Wir nennen das die große Datenlücke in der Robotik", erklärt ein Nvidia-Forscher beim Physical AI and Robotics Day auf der GTC Washington. Während große Sprachmodelle mit Billionen von Tokens aus dem Internet trainiert werden, stehen für Robotermodelle wie Nvidias GR00T bestenfalls ein paar Millionen Stunden aufwendig gesammelte Teleoperation-Daten zur Verfügung – und die meisten davon sind hochgradig aufgabenspezifisch.

Nvidias Lösung: Die Verhältnisse in der "Datenpyramide für Robotik" verschieben. An der Spitze stehen reale Daten – klein und teuer. In der Mitte synthetische Daten aus Simulation – theoretisch unbegrenzt. An der Basis: unstrukturierte Webdaten. "Wenn synthetische Daten die Web-Daten übertreffen, können Roboter wirklich generalisiert für jede Aufgabe lernen", so das Team. Mit Cosmos und Isaac Sim will Nvidia so ein Datenproblem in ein Compute-Problem verwandeln.

Read full article about: Meta startet KI-Video-Feed "Vibes" in Europa

Meta startet in Europa den KI-Video-Feed „Vibes“ in der Meta-AI-App. Alle Clips in Vibes sind KI-generiert – Nutzer können eigene Kurzvideos per Texteingabe erstellen oder bestehende Beiträge remixen, mit Musik unterlegen und stilistisch anpassen. Der Feed soll sich mit der Zeit den Interessen der Nutzer anpassen. Inhalte lassen sich direkt in der App teilen oder auf Instagram und Facebook weiterverbreiten.

Die Funktion wurde im September 2025 zunächst in den USA eingeführt. Neben Vibes bietet die App auch Zugriff auf den Meta-AI-Assistenten sowie Tools zur Bildbearbeitung und Verwaltung von Metas KI-Brillen. OpenAI hat dagegen mit der Sora-App seinen KI-Video-Feed ausgelagert. Sora ist aktuell noch nicht in der EU verfügbar.

Read full article about: Google bringt Gemini Deep Reseach für eigene Daten

Googles KI-Funktion Gemini Deep Research kann nun auch Inhalte aus Gmail, Drive und Chat in ihre Recherchen einbeziehen. Nutzer können auswählen, ob die KI neben der Websuche auch E-Mails, Dokumente oder Chatverläufe analysieren soll, um etwa Marktanalysen oder Wettbewerbsvergleiche zu erstellen. Die KI erstellt einen mehrstufigen Plan, durchsucht Quellen und erstellt auf Wunsch Berichte oder Podcasts. Das Angebot ist bisher nur auf dem Desktop verfügbar, soll aber auf Mobilgeräte ausgeweitet werden.

Deep Research ist eine agentische Funktion, und ist als solche anfällig für Cybersecurity-Attacken. Daher sollte man gerade im Kontext privater Daten sehr bewusst damit umgehen. Kürzlich zeigte ein Team, dass eine ähnliche Deep-Research-Funktion bei ChatGPT beim E-Mail-Zugriff dazu gebracht werden konnte, Daten zu leaken. Bei Googles Standard-Gemini-Assistent reichte schon ein manipulierter Kalendereintrag.