Anzeige
Short

Anthropic gibt in einem ausführlichen Artikel einen Überblick über die Entwicklung von KI-Agenten - und wann sie sich lohnen. Das Unternehmen unterscheidet zwischen Workflows, bei denen KI-Modelle und Tools durch vordefinierten Code orchestriert werden, und Agenten, die dynamisch ihre eigenen Prozesse und Tools steuern. Agenten eignen sich laut Anthropic für komplexe, offene Aufgaben, erfordern aber auch mehr Vertrauen und Ressourcen.

Anthropic empfiehlt, mit einfachen Prompts zu beginnen und die Komplexität nur bei Bedarf zu erhöhen. Frameworks können den Einstieg erleichtern, aber für die Produktion ist oft weniger Abstraktion besser.

Beim Agenten-Design sollte man auf Einfachheit, Transparenz und sorgfältig gestaltete Schnittstellen achten. Vielversprechende Anwendungen sieht Anthropic im Kundensupport und bei Programmier-Agenten.

Anzeige
Anzeige
Short

AGI ist, was Verträge daraus machen. Laut The Information definiert der Vertrag zwischen OpenAI und Microsoft künstliche allgemeine Intelligenz (AGI) als KI-Systeme, die Menschen bei den meisten wirtschaftlich wertvollen Arbeiten übertreffen - und die zusätzlich den Höchstbetrag an Gewinnen für die frühesten Investoren erzielen können.

Dieser Betrag soll bei etwa 100 Milliarden oder mehr Dollar liegen. Da OpenAI derzeit jedoch Milliardenverluste macht und erst 2029 mit dem ersten Jahresgewinn rechnet, könnte es noch viele Jahre dauern, bis dieser Schwellenwert erreicht ist.

Microsoft soll zudem bis 2030 Zugriff auf jede von OpenAI entwickelte Technologie haben, unabhängig von einer AGI-Erklärung. Zudem könnte sich die angestrebte Umwandlung von OpenAI in ein gewinnorientiertes Unternehmen auf die vertragliche AGI-Definition auswirken. Angeblich sollen OpenAI und Microsoft in Erwägung ziehen, die Klausel zu streichen.

Anzeige
Anzeige
Short

AWS hat kürzlich sein Multiagenten-Framework veröffentlicht. "Multi-Agent Orchestrator" dient laut AWS zur Verwaltung mehrerer KI-Agenten und zur Handhabung komplexer Konversationen. Es leitet Anfragen an den am besten geeigneten Agenten weiter und verwaltet den Kontext über mehrere Interaktionen hinweg. Das System bietet vorgefertigte Komponenten für eine schnelle Bereitstellung, ermöglicht aber auch die einfache Integration benutzerdefinierter Agenten. Diese Anpassungsfähigkeit macht es laut AWS für eine Vielzahl von Anwendungen geeignet, von einfachen Chatbots bis zu komplexen KI-Systemen. Das Framework unterstützt Agenten-Antworten mit und ohne Streaming sowie Kontext-Management für kohärente Interaktionen. Es ist sowohl in Python als auch in TypeScript implementiert und lässt sich lokal oder in der Cloud einsetzen. Auch Microsoft und OpenAI veröffentlichten erste Agenten-Frameworks.

 

Anzeige
Anzeige
Short

IBM hat seine quelloffenen Granite-Sprachmodelle auf Version 3.1 aktualisiert. Die Modelle wurden mit 12 Billionen Token in zwölf Sprachen und 116 Programmiersprachen trainiert und nutzen eine neue Dense-Architektur mit einem erweiterten Kontextfenster von 128.000 Token. Laut IBM eignen sich die unter der Apache 2.0-Lizenz stehenden Modelle für verschiedene Aufgaben wie die Beantwortung komplexer Fragen mit externen Daten (RAG), die Extraktion von Informationen aus unstrukturierten Daten und die Zusammenfassung von Dokumenten. In allgemeinen, geschäftlichen und Sicherheitstests sollen die Granite 3.1-Modelle Spitzenleistungen erzielen im Vergleich zu ähnlich großen Open-Source-Modellen. Die Modelle sind auf Hugging Face verfügbar. Die ersten Granite-Modelle kamen im Mai 2024 raus.

Google News