Offenbar war das o1-Modell von OpenAI für einige Stunden verfügbar. Nach Angaben mehrerer X-Benutzer konnten sie mit dem Modell unter der URL "https://chatgpt.com/?model=o1" chatten, bevor der Zugang gesperrt wurde. Das o1-Modell soll demnach rund 200K Token sowie Bilder verarbeiten können. In der Modellbeschreibung spricht OpenAI von seinem "bisher leistungsfähigsten Modell für kreative Aufgaben und fortgeschrittene Schlussfolgerungen." Bisher hat OpenAI nur eine Mini- und eine Preview-Version des o1-Modells veröffentlicht. Ein Release-Termin für die endgültige Version ist bisher nicht bekannt, aber es scheint wahrscheinlich, dass sie - im Gegensatz zu GPT-5 - noch in diesem Jahr auf den Markt kommen wird.
Der KI-Musik-Generator Suno AI führt ein neues Feature namens "Personas" ein. Damit können Nutzer die Essenz eines Songs – Gesang, Stil und Stimmung – speichern und in ihren Kreationen neu interpretieren. Um eine Persona zu erstellen, wählt man einen Song aus und klickt auf "Create" und "Make a Persona". Personas können öffentlich oder privat sein. Öffentliche Personas sind für andere nutzbar und haben eine eigene Seite bei Suno. Wie bei anderen Songs können Texte und Stil hinzugefügt werden. Das Feature ist für Pro- und Premier-Mitglieder in der Beta-Phase verfügbar. 200 Songs mit Personas sind kostenlos, danach kosten neue Songs mit Personas 10 Credits.
Das KI-Video-Unternehmen Runway hat die Funktion "Advanced Camera Control" für sein Modell Gen-3 Alpha Turbo eingeführt. Nach Angaben von RunwayML ermöglicht die neue Funktion den Benutzern, sowohl die Richtung als auch die Intensität der Kamerabewegung in den generierten Szenen präzise zu steuern. Die Beispielvideos zeigen verschiedene Kamerabewegungen wie horizontales Schwenken, Zoomen und Fahren sowie deren kreative Kombination. Runway verspricht durch die erweiterte Kamerasteuerung mehr kreative Freiheit und Intentionalität bei der Erstellung von KI-generierten Videos. Die Funktion ist ab sofort für Nutzer von Gen-3 Alpha Turbo verfügbar.