Forscher trainieren eine KI, die ihre neuronalen Verknüpfungen parallel zum Training dynamisch optimiert.
Eine KI, die sich selbst baut? Wer kurz die Weltuntergangsbrille von der Nase nimmt, kann Vorteile erkennen: Egal ob Daten analysiert, Katzen erkannt oder die nächsten Flugzeugwartungen geplant werden sollen – die KI findet automatisch eine Lösung.
Es gibt bereits Werkzeuge, die das KI-Selbstlernen vereinfachen sollen. Automatisches maschinelles Lernen (AutoML) ermöglicht die KI-Optimierung ohne große Programmierkenntnisse. Daten sortieren, KI-Modell auswählen und konfigurieren, Training – alles läuft automatisiert ab.
Für das KI-Modell werden allerdings nur bekannte Architekturen verwendet, die für die jeweilige Aufgabe geeignet sind. Neue Architekturen? Fehlanzeige. Dabei sind neue Architekturen heiß begehrt, versprechen sie doch immer genauere, schnellere und energiesparendere Algorithmen.
KI bildet eigene Netze
Wo die Menschen an ihre Grenzen kommen und keine besseren Architekturen finden, soll es nun die Künstliche Intelligenz richten: Forscher arbeiten an KIs, die ihre neuronalen Netze komplett eigenständig bilden.
Diese automatische Entdeckung von neuronalen Verknüpfungen heißt "neuronales Architekturlernen". Bei diesem können Neuronen ihre Verbindungen während des Trainings selbst bilden, auch außerhalb traditioneller Architekturen wie den aus dem Deep Learning bekannten Mehrschichtsystemen.
Das erhöht die Anzahl möglicher Netzwerkarchitekturen drastisch und bietet so das Potenzial für unbekannte, leistungsfähigere Architekturen, die auf die jeweilige Aufgabe perfekt zugeschnitten sind.
Forscher bauen leistungsstärkste Bilderkennungs-KI
Noch ist diese Forschungsdisziplin relativ jung, es existieren nur wenige wissenschaftliche Veröffentlichungen. Doch schon jetzt konnten Forscher mit der Methode die bislang effizienteste Bilderkennungs-KI schaffen.
Dafür trainierten sie eine KI mit dem ImageNet-Datensatz. Die mittlerweile zehn Jahre alte Bilderbibliothek enthält etwa 14 Millionen Fotos und wird häufig für das Training und die Leistungsbewertung von Bilderkennungs-KIs genutzt.
Die Forscher nutzten als Grundlage für ihre KI die Architektur "MobileNetV1". Während des Trainings konnte die KI diese Architektur modifizieren und ihre Neuronen frei untereinander verknüpfen.
Anschließend verglichen die Forscher die Genauigkeit bei der Bilderkennung ihrer KI mit gewöhnlichen Architekturen. Das Ergebnis: Die sich selbst modifizierende KI schlug alle Konkurrenten. Im Vergleich zur zugrundeliegenden MobileNetV1-Architektur schnitt sie etwa 20 Prozent besser ab.
Flaschenhals Hardware
Ihre Methode könne grundsätzlich jede Künstliche Intelligenz verbessern, schreiben die Forscher. Doch die Kombination aus Architekturbildung und Training benötige viel Rechenleistung. So viel, dass die Forscher auf weitere Durchbrüche bei spezialisierter KI-Hardware hoffen.
Mit ihr soll sich das Potenzial des neuronalen Architekturlernens erst richtig entfalten. Das könnte sich lohnen: Die Methode ist besonders gut geeignet, um die für eine spezielle Aufgabe optimale Netzwerkarchitektur zu schaffen – und so etwa hochpräzise und recheneffiziente KIs für den Einsatz außerhalb der Cloud-Supercomputer.
Quellen: Arxiv, Medium, Github