OpenAI will KI-Systeme entwickeln, die über Stunden oder Tage hinweg an einem Problem arbeiten können. Im offiziellen Podcast erklärt Chief Scientist Jakub Pachocki, dass solche "langfristig denkenden" Modelle neue Technologien schneller entwickeln könnten.
Derzeitige Systeme seien oft auf kurze Aufgaben beschränkt, doch OpenAI wolle Modelle bauen, die langfristig planen, denken und experimentieren können. Ein Vorgeschmack sind OpenAIs Mathe- und Code-Modelle, die Olympia-Gold in ihren Disziplinen gewinnen konnten.
Ziel sei es, die Forschung selbst zu automatisieren, etwa durch KI-gestützte Entdeckung neuer Ideen in Medizin oder KI-Sicherheit. Solche Systeme könnten zu echten technischen Durchbrüchen führen. Dafür sei jedoch deutlich mehr Rechenleistung nötig, als ein einzelner Nutzer einsetzen würde.
Yann LeCun, Chief Scientist von Metas KI-Forschungslabor FAIR, steht im Mittelpunkt einer neuen Dokumentation der Serie "AI Stories". In dem Interview spricht LeCun in Paris über seine Anfänge mit neuronalen Netzen, seine Zusammenarbeit mit Jeff Hinton und die Entwicklung von Deep Learning und Open-Source-KI.
"[Wir sehen keinen] Wettbewerb zwischen Regionen, sondern eher einen Wettbewerb zwischen der offenen Forschung, der Open‑Source‑Welt und der proprietären Welt", sagt LeCun. Seine These: Die eigentliche Dynamik der KI-Entwicklung liegt nicht bei Nationalstaaten, sondern bei offenen Systemen, die Innovation demokratisieren.
Sein Chef Mark Zuckerberg deutete zuletzt an, dass Meta von seiner Open-Source-Strategie mit Llama abrücken könnte. Ob Meta dann noch der richtige Arbeitgeber für LeCun ist?