Anzeige
Short

Das französische Start-up Mistral AI hat sein neues Sprachmodell Mixtral 8x7B über einen Torrent-Link veröffentlicht. Mixtral ist ein Mixture-of-Experts-Modell und folgt damit einer Architektur, die Gerüchten zufolge auch OpenAI für GPT-4 verwendet – allerdings deutlich höher skaliert.

Bisher gibt es noch keine Benchmarks, Blogeinträge oder Artikel über das Modell, aber Mistral-7B – die erste Version von Mistral AI – hat allgemein sehr gut abgeschnitten und wurde schnell von der Open-Source-Community angenommen. Für das Training verwendete Mistral wahrscheinlich die MoE-Bibliothek MegaBlocks. Das in Paris ansässige Unternehmen wurde kürzlich mit fast 2 Milliarden US-Dollar bewertet.

Bild: Twitter.com
Short

Mit Generative Power of Tens zeigen Forscher eine Methode für "extreme semantische Zooms" von Weitwinkelansichten bis hin zu Nahaufnahmen kleinster Details. Im Gegensatz zu herkömmlichen "Super-Resolution"-Methoden verwendet das Team der University of Washington, Google Research und der UC Berkeley Textprompts für jeden Maßstab, was tiefere Zoomstufen ermöglicht. Im Vergleich zu herkömmlichen Outpainting-Techniken erzeugt der Ansatz einen konsistenten Zoom, bei dem die Inhalte der gröberen und feineren Zoomstufen übereinstimmen.

Video: Wang et al.

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Google News