Anzeige
Skip to content
Read full article about: Eon Systems will das Gehirn einer Fruchtfliege in einen simulierten Körper kopiert haben

Das Startup Eon Systems hat laut Mitgründer Alex Wissner-Gross erstmals eine vollständige Gehirn-Emulation in einem simulierten Körper zum Laufen gebracht, die mehrere Verhaltensweisen zeigt. Konkret wurde das Gehirn einer Fruchtfliege mit über 125.000 Neuronen und 50 Millionen Synapsen in der Physiksimulation MuJoCo mit einem virtuellen Fliegenkörper verbunden. Die neuronale Verdrahtung stammt aus Elektronenmikroskopie-Daten.

Bisherige Projekte wie OpenWorm (302 Neuronen) nutzten entweder viel kleinere Nervensysteme oder maschinelles Lernen wie Reinforcement Learning statt echter Gehirndaten. Eons Ansatz unterscheidet sich grundlegend: Statt KI zu etnwickeln, will das Startup echte Gehirne Neuron für Neuron digital kopieren und simulieren. Die Fliege ist dabei nur der erste Schritt – innerhalb von zwei Jahren will Eon ein Mäusegehirn mit 70 Millionen Neuronen emulieren, langfristig ein menschliches Gehirn.

Den Code für das Gehirn-Modell hat Eon auf GitHub veröffentlicht, er basiert allerdings auf dem bereits 2024 in Nature erschienenen Paper von Philip Shiu et al. Den eigentlich neuen Teil – die Verbindung von Gehirn und simuliertem Körper – hat Eon bisher nicht veröffentlicht.

Anthropic-Modell Claude Opus 4.6 durchschaut KI-Test, hackt Verschlüsselung und besorgt sich die Lösungen selbst

Anthropics KI-Modell Claude Opus 4.6 hat während eines Benchmarks eigenständig erkannt, dass es getestet wird, den konkreten Test identifiziert und dessen verschlüsselten Lösungsschlüssel geknackt. Laut Anthropic ist das der erste dokumentierte Fall dieser Art.

Erfundene Quellen haben sich bereits in die wissenschaftliche Literatur eingeschlichen

Gefälschte Zitate rutschen durch das Peer-Review führender KI-Konferenzen und kommerzielle LLMs erkennen ihre eigenen Fakes nicht. Ein neues Open-Source-Tool namens CiteAudit soll finden, was GPT, Gemini und Claude übersehen.

KI-Modelle können ihre eigenen Gedanken kaum kontrollieren, und OpenAI hält das für eine gute Nachricht

Mit GPT-5.4 Thinking berichtet OpenAI erstmals über die „CoT-Kontrollierbarkeit“ eines Modells. Eine begleitende Studie zeigt: Reasoning-Modelle scheitern fast durchgängig daran, ihre Gedankenketten gezielt zu manipulieren. Für die KI-Sicherheit ist das eine gute Nachricht.