Google Research hat ein Multi-Agenten-KI-System namens AI Co-Scientist entwickelt, das Wissenschaftler bei der Generierung neuer Hypothesen und Forschungsvorschläge unterstützen soll.
Google Research hat den AI Co-Scientist vorgestellt, ein auf Gemini 2.0 basierendes Multi-Agenten-KI-System. Es soll als virtueller Forschungspartner dienen, um neuartige Hypothesen und Vorschläge zu generieren und so wissenschaftliche Entdeckungen zu beschleunigen.
Das System verwendet spezialisierte Agenten, die iterativ Hypothesen generieren, bewerten und verfeinern - und dabei auch auf den neuesten Trend "test-time compute" setzen. Wissenschaftler können mit dem System interagieren, indem sie eigene Ideen einbringen oder Feedback geben. Ein integriertes Elo-Rating-System bewertet dabei die Qualität der generierten Vorschläge.
Video: Google Deepmind
Googles Co-Scientist sammelte bereits erste Praxiserfahrung
In Laborexperimenten wurden Hypothesen des AI Co-Scientist in drei biomedizinischen Anwendungen getestet: Im Drug Repurposing, der Identifizierung neuer Behandlungsziele und der Erklärung von Antibiotikaresistenzmechanismen.
In allen Bereichen konnten laut Google vielversprechende Ergebnisse erzielt werden. So schlug der AI Co-Scientist neuartige Medikamente zur Behandlung von akuter myeloischer Leukämie vor, die in Experimenten bestätigt wurden. Auch bei der Identifizierung neuer Behandlungsziele für Leberfibrose und der Erklärung von Mechanismen der Antibiotikaresistenz lieferte das System laut Google wertvolle Hypothesen, die teilweise bereits vor seiner Entwicklung im Labor bestätigt worden waren.
Auch der Co-Scientist halluziniert
Nach Angaben von Google Research weist der AI Co-Scientist noch mehrere wichtige Limitierungen auf. Das System benötigt Verbesserungen bei der Literaturrecherche und der Überprüfung von Fakten. Auch die Evaluierungsmethoden müssen laut den Entwicklern noch ausgebaut werden - insbesondere durch Tests mit einer größeren Anzahl von Fachexperten und verschiedenartigen Forschungszielen.
Die Entwickler empfehlen zudem, zusätzliche externe Tools zur Gegenkontrolle einzubauen und die Methoden zur automatischen Selbstbewertung des Systems zu verfeinern.
Interessierte Forschungseinrichtungen sollen Zugang zu dem System erhalten, um es im Rahmen eines Trusted Tester-Programms umfassend zu testen.