Inhalt
summary Zusammenfassung

Während OpenAI mit o1 auf mathematisches Reasoning setzt, konzentriert sich Meta auf verschiedene Arten des Schlussfolgerns.

Anzeige

Laut Joëlle Pineau, VP of AI bei Meta, glaube die "breite Öffentlichkeit" möglicherweise, dass Reasoning (Schlussfolgern) in der KI eine einzelne Sache sei. Tatsächlich gebe es verschiedene Arten von Reasoning, die sich je nach Anwendungsbereich unterscheiden, so Pineau gegenüber Alex Heath von The Verge. Die Forscherin unterscheidet mehrere Formen des Reasoning:

  • Mathematisches Reasoning: Hier geht es um das Lösen mathematischer Probleme.
  • Planerisches Reasoning: Diese Form beinhaltet das Erstellen von Plänen und Strategien.
  • Diskretes Reasoning: Dabei werden Symbole durchsucht, um eine Lösung zu finden.
  • Linguistisches Reasoning: Ein Beispiel hierfür wäre die Frage, wie viele "R" im Wort "Erdbeeren" vorkommen.
  • Modales Reasoning: Hier geht es um Fragen zu visuellen, auditiven oder Video-Inhalten.

Laut Pineau konzentriert sich OpenAIs o1-Modell hauptsächlich auf mathematisches Reasoning. Sie erklärt, dass der von OpenAI gewählte Chain-of-Thought-Ansatz für mathematisches Reasoning sinnvoll sei, Meta jedoch andere Schwerpunkte setze. Die Facebook-Firma fokussiere sich mehr auf Reasoning über textuelle und multimodale Informationen, da dies eher den Bedürfnissen ihrer Nutzer bei Meta AI entspreche.

Diese Ausrichtung spiegelt sich auch in der kürzlich von Meta-Forschern vorgestellten Methode "Thought Preference Optimization" (TPO) wider. TPO zielt darauf ab, Sprachmodelle ohne spezielle Trainingsdaten zum "Denken" vor dem Antworten zu bringen, und das nicht nur bei mathematischen oder logischen Problemen, sondern bei allgemeinen Aufgaben.

Anzeige
Anzeige

Verlässliche KI-Agenten sind noch weit entfernt

Auf die Frage nach der Zuverlässigkeit von KI-Agenten für alltägliche Aufgaben, wie sie OpenAI als nächsten Wachstumshorizont sieht, gibt sich Pineau vorsichtig. Sie betont, dass es noch einige Zeit dauern wird, bis wir von einem wirklich zuverlässigen Verhalten der Agenten sprechen können.

Die Forscherin hält es für wichtig, dass Agenten auch Fehler machen, um daraus zu lernen. Die Erwartung, dass bereits die erste Generation von Agenten hochzuverlässig arbeiten kann, hält sie daher für zu optimistisch.

Eine zentrale Herausforderung sieht Pineau in der Balance zwischen der Autonomie des Agenten und der des Menschen. Sie beschreibt das Dilemma zwischen einem Agenten, der sich jede Aktion bestätigen lässt, und einem Agenten, der zu viele Entscheidungen autonom trifft. Der ideale Mittelweg, bei dem Agenten wichtige Entscheidungen zuverlässig treffen können, liege noch in weiter Ferne.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Meta setzt bei der Entwicklung von KI-Systemen andere Schwerpunkte als OpenAI. Während OpenAI mit o1 primär mathematisches Schlussfolgern (Reasoning) in den Fokus rückt, konzentriert sich Meta auf verschiedene Arten des Reasonings wie planerisches, diskretes, linguistisches und multimodales Schlussfolgern.
  • Metas VP of AI, Joelle Pineau, betont, dass die Ausrichtung auf textuelle und multimodale Informationen eher den Bedürfnissen der Meta-Nutzer entspricht. Das spiegelt sich auch in der kürzlich vorgestellten Methode "Thought Preference Optimization" (TPO) wider, die Sprachmodelle zum "Denken" vor dem Antworten bringen soll.
  • Pineau gibt sich zudem vorsichtig, was die Zuverlässigkeit von KI-Agenten für alltägliche Aufgaben angeht. Sie sieht eine zentrale Herausforderung darin, die richtige Balance zwischen der Autonomie des Agenten und der menschlichen Autonomie zu finden. Der ideale Mittelweg, bei dem Agenten zuverlässig wichtige Entscheidungen treffen können, liege noch in weiter Zukunft.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!