Große Sprachmodelle (Large Language Models, LLMs) verändern die Softwareentwicklung, aber ihre Neuartigkeit und Komplexität können Entwickler abschrecken. In einem ausführlichen Blogbeitrag stellen Matt Bornstein und Rajko Radovanovic eine Referenzarchitektur für den Anwendungsstack für LLMs vor, die die gängigsten Werkzeuge und Entwurfsmuster in diesem Bereich umfasst. Die Referenzarchitektur zeigt In-Context-Learning, ein Design-Pattern, das es Entwicklern ermöglicht, mit vorgefertigten LLMs zu arbeiten und deren Verhalten mit intelligenten Eingabeaufforderungen und privaten Kontextdaten zu steuern.

Anzeige

"Vortrainierte KI-Modelle stellen die bedeutendste Veränderung in der Softwarearchitektur seit dem Internet dar."

Matt Bornstein und Rajko Radovanovic

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!