Anzeige
Short

Die Anzahl der "extrem produktiven" Forscher, die mehr als 60 Veröffentlichungen pro Jahr publizieren, ist im Vergleich zu vor einem Jahrzehnt um das Vierfache gestiegen. Laut einer auf bioRxiv veröffentlichten Studie sind die stärksten Zuwächse in Saudi-Arabien und Thailand zu verzeichnen. Die Studie, durchgeführt von John Ioannidis, Arzt an der Stanford University, und Kollegen, wirft Bedenken hinsichtlich möglicher zweifelhafter Praktiken und Betrug auf. "Der Druck, zu veröffentlichen oder unterzugehen, ist in mehreren wissenschaftlichen Bereichen stärker geworden."

Die Forscher analysierten Artikel, Rezensionen und Konferenzbeiträge, die zwischen 2000 und 2022 in der Scopus-Datenbank indexiert wurden. Die meisten " extrem produktiven " Autoren wurden in der klinischen Medizin gefunden. Das thailändische Forschungsförderungssystem und der Fokus auf Universitätsrankings könnten Faktoren sein, die diesen Trend begünstigen, so die Autoren. Sie gehen davon aus, dass Künstliche Intelligenz diesen Trend unterstützt und verstärken wird.

Short

Der weltweit wertvollste Chiphersteller Nvidia hat sich in diesem Jahr als einer der führenden Investoren in KI-Start-ups etabliert. Laut Dealroom hat Nvidia in 35 Deals im Jahr 2023 investiert, was fast sechsmal mehr ist als im Vorjahr. Damit ist das Unternehmen der aktivste Großinvestor im Bereich Künstliche Intelligenz, berichtet die Financial Times. Die Gesamtinvestitionen von Nvidia belaufen sich auf 872 Millionen US-Dollar, über zehnmal so viel wie im gleichen Zeitraum des Vorjahres. Alle von Nvidia finanzierten Unternehmen nutzen Technologie des Unternehmens, zum Portfolio gehören Inflection AI, Cohere, Hugging Face und CoreWeave. Die jüngste Investition von Nvidia erfolgte in das Pariser KI-Start-up Mistral.

Anzeige
Anzeige
Short

Das französische Start-up Mistral AI hat sein neues Sprachmodell Mixtral 8x7B über einen Torrent-Link veröffentlicht. Mixtral ist ein Mixture-of-Experts-Modell und folgt damit einer Architektur, die Gerüchten zufolge auch OpenAI für GPT-4 verwendet – allerdings deutlich höher skaliert.

Bisher gibt es noch keine Benchmarks, Blogeinträge oder Artikel über das Modell, aber Mistral-7B – die erste Version von Mistral AI – hat allgemein sehr gut abgeschnitten und wurde schnell von der Open-Source-Community angenommen. Für das Training verwendete Mistral wahrscheinlich die MoE-Bibliothek MegaBlocks. Das in Paris ansässige Unternehmen wurde kürzlich mit fast 2 Milliarden US-Dollar bewertet.

Bild: Twitter.com
Anzeige
Anzeige
Short

Mit Generative Power of Tens zeigen Forscher eine Methode für "extreme semantische Zooms" von Weitwinkelansichten bis hin zu Nahaufnahmen kleinster Details. Im Gegensatz zu herkömmlichen "Super-Resolution"-Methoden verwendet das Team der University of Washington, Google Research und der UC Berkeley Textprompts für jeden Maßstab, was tiefere Zoomstufen ermöglicht. Im Vergleich zu herkömmlichen Outpainting-Techniken erzeugt der Ansatz einen konsistenten Zoom, bei dem die Inhalte der gröberen und feineren Zoomstufen übereinstimmen.

Video: Wang et al.

Anzeige
Anzeige
Google News