ByteDance gibt KI-Videomodellen ein Gedächtnis für längere Geschichten
ByteDance löst ein hartnäckiges Problem der KI-Videogenerierung: Charaktere, die von Szene zu Szene ihr Aussehen wechseln. Das neue System StoryMem merkt sich, wie Figuren und Umgebungen aussehen sollen und hält sie über eine ganze Geschichte hinweg stabil.
Forscherteam will unlogische KI-Grübelei mit neuen "Laws of Reasoning" beenden
Wenn ich bei einer einfachen Aufgabe länger grübeln würde als bei einer komplexen – und dabei auch noch schlechter abschneiden würde – würde mein Chef wohl Fragen stellen. Genau das passiert aber offenbar bei aktuellen Reasoning-Modellen wie Deepseek-R1. Ein Forscherteam hat sich das Problem nun genauer angeschaut und theoretische Gesetze formuliert, die beschreiben, wie KI-Modelle idealerweise „denken“ sollten.
Metas Pixio lernt durch Pixel-Rekonstruktion und übertrifft aufwendigere KI-Modelle
Weniger ist mehr: Metas neues Bildmodell Pixio schlägt komplexere Konkurrenten bei Tiefenschätzung und 3D-Rekonstruktion, obwohl es weniger Parameter hat. Die Trainingsmethode galt eigentlich als überholt.
Metas neues KI-Modell SAM Audio lässt Nutzer Töne in Videos anklicken
Hundegebell aus dem Straßenlärm filtern oder per Mausklick im Video eine Tonquelle isolieren: Mit SAM Audio bringt Meta sein bewährtes visuelles Segmentierungskonzept in die Audiowelt. Das Modell vereinfacht Audio-Bearbeitung durch Text, Klicks oder Zeitmarkierungen. Code und Gewichte sind frei verfügbar.