Wie nützlich sind Millionen-Kontextfenster wirklich? Nikolay Savinov von Google Deepmind erklärt, dass Sprachmodelle bei vielen Tokens im Kontextfenster mit einem Verteilungsproblem kämpfen: Mehr Aufmerksamkeit für ein Token bedeutet automatisch weniger für andere. Savinov rät daher, irrelevante Inhalte möglichst nicht in den Kontext aufzunehmen. Zwar sei es das Ziel, Modelle so zu verbessern, dass dieses Problem nicht mehr besteht. Aktuell sei es aber effizienter, den Kontext gezielt zu wählen.

Anzeige

Wenn man es [das Kontextfenster] im Moment gut nutzen will, dann sollte man realistisch sein. Man sollte einfach keine irrelevanten Kontexte einfügen.

Nikolay Savinov

Aktuelle Forschung bestätigt Savinovs Aussagen. In der Praxis bedeutet das beispielsweise, vor der KI-Verarbeitung Seiten aus einem PDF zu entfernen, die für die zu lösende Aufgabe irrelevant sind, auch wenn das KI-System das PDF als Ganzes akzeptiert.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!