Inhalt
newsletter Newsletter

OpenAIs riesige Text-KI GPT-3 hat weltweit Wellen geschlagen. Der KI-Bundesverband warnt vor einer europäischen Abhängigkeit von amerikanischen KI-Modellen.

Vor knapp einem Jahr zeigte OpenAI das große KI-Modell GPT-3, das glaubwürdige Texte verfasst, Tabellen vervollständigen kann, rudimentären Code schreibt oder Zusammenfassungen erstellt.

Wie beim Vorgänger GPT-2 hielt OpenAI das KI-Modell vorerst zurück. Im Juni 2021 brach OpenAI dann überraschend mit seiner bisherigen Open-Source-Politik und startete den Verkauf von Zugängen für GPT-3 über eine API. Mittlerweile nutzen mehr als 300 Apps GPT-3 und Microsoft veröffentlichte sein erstes Produkt mit GPT-3-Integration.

Anfang 2021 zeigte OpenAI die weiterentwickelten multimodalen KI-Modelle DALL-E und CLIP für Text und Bild. Es ist wohl nur eine Frage der Zeit, bis OpenAI auch hier den Zugang zu den beiden GPT-Nachfolgern verkauft.

Anzeige
Anzeige

Mit anderen Worten: OpenAI ist schon ziemlich weit. Und weitere KI-Unternehmen speziell in den USA und China sind es auch. Wie sieht es in Europa aus?

KI-Bundesverband fordert europäisches KI-Ökosystem

In einem neuen Positionspapier mit dem Titel „Large European AI Models“ (LEAM) warnt nun der KI-Bundesverband vor einer europäischen Abhängigkeit von amerikanischen KI-Modellen.

„Wir haben die Befürchtung, dass europäische Akteure hinter die amerikanischen zurückfallen und mit den schnellen Innovationszyklen nicht mehr mithalten können“, heißt es im Positionspapier.

Daraus könne eine Abhängigkeit entstehen, die Europa bereits in anderen Digitalsektoren wie Suchmaschinen, mobilen Anwendungen und Cloud-Anwendungen erlebt habe. Solche KI-Modelle würden außerdem wohl keine Rücksicht auf europäische Werte nehmen. Besondere Defizite befürchtet der KI-Bundesverband im Datenschutz.

Große KI-Modelle könnten nur von finanz- und ressourcenstarken Unternehmen umgesetzt werden, so die Autoren. Das führe mittelfristig dazu, dass zentrale KI-Funktionalitäten von einigen wenigen Marktteilnehmern angeboten werden.

Empfehlung

In der Konsequenz werde so das innovative deutsche KI-Ökosystem von diesen Modellen abhängig. Bereits jetzt müssten deutsche Firmen eigene Daten und Kundendaten in die USA senden, um GPT-3 verwenden zu können. Das sei für viele Firmen aufgrund des Datenschutzes nicht realisierbar.

Der KI-Bundesverband sieht daher hohen Handlungsbedarf für ein deutsches und europäisches KI-Ökosystem zur Entwicklung, Bereitstellung, Betrieb, Integration und Validierung besonders leistungsfähiger KI-Modelle.

Die erforderlichen Rechenkapazitäten könnten beispielsweise über das geplante IPCEI (Important Project of Common European Interest) zum Thema Industrial Cloud bereitgestellt werden. LEAM könne zudem als Leuchtturmprojekt des europäischen Dateninfrastrukturprojekts Gaia-X fungieren.

Beteiligte für die Konzeption des Projekts sollen laut KI-Bundesverband kleine und mittlere Unternehmen und KI-Unternehmen, Industriepartner und KI-Anwender, Vertreter aus dem Umfeld der Gaia-X-Initiative, Cloud-Computing Partner wie Cloud&Heat und Ionos, der Internet-Knoten DE-CIX und universitäre Forschungseinrichtungen sein.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

„Das Wettrennen um große KI-Modelle hat auf breiter Front begonnen“

Laut des Bundesverbands ist zum Erhalt der digitalen Souveränität in Europa also der umgehende Start von Maßnahmen für den Aufbau eines offenen Service für große KI-Modelle erforderlich.

Um zu erfahren, was das im Detail für Europa bedeutet, habe ich mit Jörg Bienert gesprochen, Gründungsmitglied und Vorstandsvorsitzenden des KI-Bundesverbands sowie Mit-Autor des LEAM-Positionspapiers.

Sie deuten im LEAM-Paper an, es könnten abseits der Sprachverarbeitung Anwendungsfälle für „typisch europäische Domänen wie Medizin, Maschinen- und Fahrzeugbau, Bildung und generelle B2B-Szenarien" existieren. Wie könnten diese aussehen?

Große KI-Modelle werden in vielen Domänen entwickelt werden und neue Möglichkeiten eröffnen - die Sprachmodelle sind erst der Anfang. Im Bereich Medizin hat Google Deepmind mit Alphafold gezeigt, wie man die Berechnung der Proteinfaltung durch große Modelle unterstützen und die Entwicklung von Therapien und Medikamenten enorm beschleunigen kann. Mulitmodale Modelle kombinieren unterschiedliche Datenarten in ein Modell, zum Beispiel Text und Bilder.

Welche Hürden sehen Sie bei der Umsetzung von LEAM im Rahmen der im April vorgelegten Vorschläge zur Regulierung von KI in Europa, etwa bezüglich der Sammlung und des Umgangs mit Daten oder dem Umgang mit Bias, wie er sich in OpenAIs GPT-3 zeigt?

Große, leistungsfähige KI-Modelle benötigen große Mengen an Daten - aus unterschiedlichen Quellen. Hier sind die Amerikaner und Chinesen klar im Vorteil. Es werden im Rahmen der Erstellung von Sprachmodellen in Europa eine Menge von Fragen auftreten hinsichtlich des Datenschutzes, Bias und so weiter. Aber diese Fragen können wir nur lösen, wenn wir den Entwicklungsprozess selber steuern, Forschung in Europa betreiben und die HPC Infrastruktur zur Verfügung haben, um die Modelle kontinuierlich weiterzuentwickeln und zu verbessern.

Gibt es in Europa bereits jetzt die für LEAM-Projekte notwendige Recheninfrastruktur? Oder hängt Europa im internationalen Vergleich hinterher?

Es gibt in Europa Hochleistungsrechenzentren wie etwa den Juwels Booster, der mit Platz 7 auf der weltweiten Supercomputerliste zwei Plätze hinter Selene liegt, auf dem GPT-3 trainiert wurde. Diese Infrastrukturen werden aber im Wesentlichen für wissenschaftliche Zwecke eingesetzt. Wir brauchen eine stetig für KI verfügbare Infrastruktur, auf denen fortlaufende Weiterentwicklungen stattfinden können, und die sowohl von der Wissenschaft als auch von der Industrie genutzt werden kann. Wir brauchen ein europäisches CERN für KI.

Die Entwicklung großer KI-Modelle ist rasant. Wie stellt LEAM sicher, dass Europa nicht weiter der Entwicklung hinterherläuft?

Wir müssen schnell und flexibel sein und Hürden überwinden. Es darf nicht passieren, dass sich in unzähligen Koordinations- und Abstimmrunden auf einen kleinsten gemeinsamen Nenner geeinigt wird. Wenn wir das vermeiden können, haben wir eine Chance, technologisch aufzuholen und können gleichzeitig die Berücksichtigung unserer europäischen Werte sicherstellen.

Wenn alles so klappt, wie Sie es sich vorstellen – wann erwartet uns das erste europäische LEAM und was wird es tun?

Es gibt in Europa bereits Initiativen mit dem Ziel, große Sprachmodelle zu trainieren und als Open Source zur Verfügung zu stellen. Unsere Überlegungen gehen einen Schritt weiter. In China ist mit Wudao ein multimodales Model veröffentlicht worden, das unterschiedliche Arten von Daten kombiniert.

Zudem hat die Beijing Academy of AI große Modelle für die Bereiche Physik, Lebenswissenschaften und 3D-Proteinstrukturen angekündigt. Das Wettrennen um große KI-Modelle hat also auf breiter Front begonnen.

Das LEAM-Positionspapier gibt es auf der Webseite des KI-Bundesverbandes.

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!