Anzeige
Skip to content
Read full article about: Die Wunder der vortrainierten KI-Modelle

Große Sprachmodelle (Large Language Models, LLMs) verändern die Softwareentwicklung, aber ihre Neuartigkeit und Komplexität können Entwickler abschrecken. In einem ausführlichen Blogbeitrag stellen Matt Bornstein und Rajko Radovanovic eine Referenzarchitektur für den Anwendungsstack für LLMs vor, die die gängigsten Werkzeuge und Entwurfsmuster in diesem Bereich umfasst. Die Referenzarchitektur zeigt In-Context-Learning, ein Design-Pattern, das es Entwicklern ermöglicht, mit vorgefertigten LLMs zu arbeiten und deren Verhalten mit intelligenten Eingabeaufforderungen und privaten Kontextdaten zu steuern.

"Vortrainierte KI-Modelle stellen die bedeutendste Veränderung in der Softwarearchitektur seit dem Internet dar."

Matt Bornstein und Rajko Radovanovic

Read full article about: Metas Voicebox ist Stable Diffusion für Stimmen

Metas Voicebox ist wie Stable Diffusion für Stimmen: Das generative KI-Modell synthetisiert Stimmen aus Text und kann für verschiedene Sprachaufgaben eingesetzt werden. Voicebox erzeugt realistische und ausdrucksstarke Stimmen und erlaubt die Übernahme von Attributen wie Tonfall, Stil oder Akzent aus Audiodateien.

Laut Meta übertrifft Voicebox bestehende Sprachsynthesemodelle wie VALL-E von Microsoft in puncto Sprachqualität und Natürlichkeit. "Als erstes vielseitiges und effizientes Modell, das sich erfolgreich auf verschiedene Aufgaben verallgemeinern lässt, könnte Voicebox unserer Meinung nach eine neue Ära der generativen KI für gesprochene Sprache einläuten", so Meta. Aufgrund des Missbrauchsrisikos hat das Team auch ein System zur Erkennung synthetisierter Sprache entwickelt und die Veröffentlichung von Voicebox vorerst zurückgestellt.

Video: Meta

Read full article about: Deutsches Forschungsnetzwerk startet KI-Supercomputer "42"

Das Hessische Zentrum für Künstliche Intelligenz (hessian.AI) nimmt den für die Entwicklung von KI optimierten Supercomputer "fortytwo" in Betrieb. Er wurde von HP gebaut und ist mit 632 Nvidia A100 GPUs und vier Graphcore IPUs ausgestattet. Die Spitzenleistung soll bei acht Petaflops liegen, womit er zu den Top 100 der weltweit leistungsstärksten Supercomputer gehört. Der Name stammt aus "Per Anhalter durch die Galaxis".

Bild: hessian.AI