Große Sprachmodelle (Large Language Models, LLMs) verändern die Softwareentwicklung, aber ihre Neuartigkeit und Komplexität können Entwickler abschrecken. In einem ausführlichen Blogbeitrag stellen Matt Bornstein und Rajko Radovanovic eine Referenzarchitektur für den Anwendungsstack für LLMs vor, die die gängigsten Werkzeuge und Entwurfsmuster in diesem Bereich umfasst. Die Referenzarchitektur zeigt In-Context-Learning, ein Design-Pattern, das es Entwicklern ermöglicht, mit vorgefertigten LLMs zu arbeiten und deren Verhalten mit intelligenten Eingabeaufforderungen und privaten Kontextdaten zu steuern.
"Vortrainierte KI-Modelle stellen die bedeutendste Veränderung in der Softwarearchitektur seit dem Internet dar."
Matt Bornstein und Rajko Radovanovic