Während OpenAI mit o1 auf mathematisches Reasoning setzt, konzentriert sich Meta auf verschiedene Arten des Schlussfolgerns.
Laut Joëlle Pineau, VP of AI bei Meta, glaube die "breite Öffentlichkeit" möglicherweise, dass Reasoning (Schlussfolgern) in der KI eine einzelne Sache sei. Tatsächlich gebe es verschiedene Arten von Reasoning, die sich je nach Anwendungsbereich unterscheiden, so Pineau gegenüber Alex Heath von The Verge. Die Forscherin unterscheidet mehrere Formen des Reasoning:
- Mathematisches Reasoning: Hier geht es um das Lösen mathematischer Probleme.
- Planerisches Reasoning: Diese Form beinhaltet das Erstellen von Plänen und Strategien.
- Diskretes Reasoning: Dabei werden Symbole durchsucht, um eine Lösung zu finden.
- Linguistisches Reasoning: Ein Beispiel hierfür wäre die Frage, wie viele "R" im Wort "Erdbeeren" vorkommen.
- Modales Reasoning: Hier geht es um Fragen zu visuellen, auditiven oder Video-Inhalten.
Laut Pineau konzentriert sich OpenAIs o1-Modell hauptsächlich auf mathematisches Reasoning. Sie erklärt, dass der von OpenAI gewählte Chain-of-Thought-Ansatz für mathematisches Reasoning sinnvoll sei, Meta jedoch andere Schwerpunkte setze. Die Facebook-Firma fokussiere sich mehr auf Reasoning über textuelle und multimodale Informationen, da dies eher den Bedürfnissen ihrer Nutzer bei Meta AI entspreche.
Diese Ausrichtung spiegelt sich auch in der kürzlich von Meta-Forschern vorgestellten Methode "Thought Preference Optimization" (TPO) wider. TPO zielt darauf ab, Sprachmodelle ohne spezielle Trainingsdaten zum "Denken" vor dem Antworten zu bringen, und das nicht nur bei mathematischen oder logischen Problemen, sondern bei allgemeinen Aufgaben.
Verlässliche KI-Agenten sind noch weit entfernt
Auf die Frage nach der Zuverlässigkeit von KI-Agenten für alltägliche Aufgaben, wie sie OpenAI als nächsten Wachstumshorizont sieht, gibt sich Pineau vorsichtig. Sie betont, dass es noch einige Zeit dauern wird, bis wir von einem wirklich zuverlässigen Verhalten der Agenten sprechen können.
Die Forscherin hält es für wichtig, dass Agenten auch Fehler machen, um daraus zu lernen. Die Erwartung, dass bereits die erste Generation von Agenten hochzuverlässig arbeiten kann, hält sie daher für zu optimistisch.
Eine zentrale Herausforderung sieht Pineau in der Balance zwischen der Autonomie des Agenten und der des Menschen. Sie beschreibt das Dilemma zwischen einem Agenten, der sich jede Aktion bestätigen lässt, und einem Agenten, der zu viele Entscheidungen autonom trifft. Der ideale Mittelweg, bei dem Agenten wichtige Entscheidungen zuverlässig treffen können, liege noch in weiter Ferne.