Inhalt
summary Zusammenfassung

Das "Center of AI Safety" hat ein KI-System entwickelt, das angeblich bessere Vorhersagen treffen kann als menschliche Experten. Eine Studie zeigt, dass es sogar Gruppen von Prognostikern überlegen ist.

Anzeige

FiveThirtyNine basiert auf GPT-4o und gibt Wahrscheinlichkeiten für benutzerdefinierte Abfragen aus, wie "Wird Trump die Präsidentschaftswahl 2024 gewinnen?" oder "Wird China bis 2030 in Taiwan einmarschieren?".

Die Entwickler verwenden dafür eine Kombination aus Internet-Crawling und einem elaborierten Prompt, der dem Modell vorgibt, die gefundenen Quellen zu analysieren und die Wahrscheinlichkeit von Ja und Nein zu bewerten.

Der Prompt für FiveThirtyNine. | Bild: CAIS

KI übertrifft Experten-Crowd auf Metaculus

Um die Leistung von FiveThirtyNine zu testen, wurde es auf Fragen der Prognoseplattform Metaculus evaluiert. Dabei durfte die KI nur auf Informationen zugreifen, die auch den menschlichen Prognostikern zur Verfügung standen.

Anzeige
Anzeige

Bei einem Datensatz von 177 Ereignissen erreichte die Metaculus-Crowd eine Genauigkeit von 87,0 Prozent, während FiveThirtyNine mit 87,7 Prozent ± 1,4 die Experten übertraf. "Daher denke ich, dass KI-Prognostiker bald die meisten Prognosemärkte automatisieren werden", schreibt Dan Hendrycks, Direktor des CAIS.

Tabellarische Auflistung von Argumenten in zwei Spalten
Grafische Darstellung der Argumente für und gegen einen Wahlsieg von Donald Trump bei den US-Präsidentschaftswahlen 2024, erstellt vom KI-System FiveThirtyNine. | Bild: FiveThirtyNine

Die Entwickler sehen vielfältige Anwendungsmöglichkeiten für Prognose-KIs wie FiveThirtyNine, etwa zur Unterstützung von Entscheidungsträgern, zur Verbesserung der Informationslandschaft durch vertrauenswürdige Vorhersagen oder zur Risikoabschätzung in Chatbots und persönlichen KI-Assistenten. Eine Demo ist hier verfügbar.

Noch einige Schwächen und Limitierungen

Allerdings hat das System auch noch einige Schwächen. So ist es nicht speziell auf bestimmte Anwendungsfälle optimiert und wurde beispielsweise nicht auf seine Fähigkeit getestet, Finanzmärkte vorherzusagen. Auch kann FiveThirtyNine eine Vorhersage nicht ablehnen, wenn es eine ungültige Abfrage erhält.

Ein weiteres Problem ist die Beschränkung auf Informationen, die im Trainingsmaterial enthalten sind. Wenn etwas nicht in der Vortrainingsverteilung vorkommt und keine Artikel darüber geschrieben wurden, weiß das Modell nichts davon - selbst wenn ein Mensch in der Lage wäre, eine Vorhersage zu treffen.

Für Prognosen über sehr kurzfristige oder aktuelle Ereignisse schneidet FiveThirtyNine ebenfalls schlecht ab, da es vor einiger Zeit mit dem Training aufgehört hat und daher beispielsweise standardmäßig davon ausgeht, dass Joe Biden noch im Rennen ist.

Empfehlung

Das "Center for AI Safety" (CAIS) ist eine US-basierte gemeinnützige Organisation, die sich mit den Risiken der künstlichen Intelligenz (KI) auseinandersetzt. Sie hat in der Vergangenheit unter anderem ein Paper veröffentlicht, in dem sie eine umfassende Übersicht über alle "katastrophalen KI-Risiken" bietet. Die Organisation unterstützt auch das kalifornische KI-Gesetz SB 1047.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Das "Center of AI Safety" hat mit FiveThirtyNine ein KI-System entwickelt, das bessere Vorhersagen treffen soll als menschliche Experten. Es basiert auf GPT-4o und gibt Wahrscheinlichkeiten für benutzerdefinierte Abfragen aus.
  • In einem Test auf der Prognoseplattform Metaculus übertraf FiveThirtyNine mit einer Genauigkeit von 87,7 Prozent eine Experten-Crowd mit 87,0 Prozent. Die Entwickler sehen vielfältige Einsatzmöglichkeiten, etwa zur Unterstützung von Entscheidungsträgern oder zur Risikoeinschätzung in Chatbots.
  • Allerdings hat das System auch noch Schwächen, wie fehlende Spezialisierung auf bestimmte Anwendungsfälle, Beschränkung auf Informationen aus dem Trainingsmaterial und schlechte Leistung bei sehr kurzfristigen oder aktuellen Ereignissen.
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!