Alexa-Miterfinder William Tunstall-Pedoe gründet ein millionenschweres KI-Start-up, das abseits der Skalierung großer KI-Modelle neue Wege beschreiten will.
William Tunstall-Pedoe hat die KI-Assistentin Evi entwickelt, deren Technologie Amazon später in Alexa verwendete. Amazon übernahm das gleichnamige Start-up 2012. Tunstall-Pedoe arbeitete anschließend bis 2016 für Amazon und führte mit seinem Team Alexa zur Marktreife.
Mit Unlikely AI gründete Tunstall-Pedoe bereits 2018 ein neues KI-Start-up. Dessen bislang einziges Produkt ist eine KI-gestützte App, die unter anderem mittels maschinellem Sehen komplizierte Kreuzworträtsel lösen kann.
Das Start-up schreibt aber auch: "Ein Großteil unserer Arbeit wurde bislang nicht angekündigt."
20 Millionen US-Dollar Investition für einen alternativen AGI-Ansatz?
Jetzt tauchen Unlikely AI und Tunstall-Pedoe wieder auf: Das in Cambridge und London ansässige Start-up erhält 20 Millionen US-Dollar von Risikokapitalgebern. Unter den Geldgeber:innen ist unter anderem der ehemalige Google-Finanzchef Patrick Pichette, der im Twitter-Board sitzt.
Wofür genau die Investor:innen Geld ausgeben, verrät Tunstall-Pedoe nicht. Die Investition soll in Personal fließen, das eine neue Art KI-Software entwickelt. Gegenüber Bloomberg deutet Tunstall-Pedoe an, dass sein Start-up an einer alternativen Methode forscht, Künstliche Intelligenz zu generalisieren - abseits großer KI-Modelle und deren Skalierung.
"Alle sind auf den Weg des maschinellen Lernens mit großen neuronalen Netzen festgelegt", sagt Tunstall-Pedoe. "Es ist sehr unklar, ob dieser Weg zu einer allgemein intelligenten Maschine führen wird. Wir werfen einen neuen, konträren Blick auf diesen Weg."
Die Skalierungsfrage
Wie weit trägt die Skalierung großer KI-Modelle die Entwicklung Künstlicher Intelligenz? Diese Frage ist Anlass für Diskussionen in der KI-Forschung.
Das zeigt unter anderem eine kürzlich veröffentlichte Umfrage unter Forschenden mit Schwerpunkt auf natürlicher Sprachverarbeitung: Lediglich 17 Prozent der Befragten denken, dass Skalierung nahezu jedes wichtige Problem in der NLP-Forschung lösen kann. 72 Prozent gehen davon aus, dass ihr Feld einen zu starken Fokus auf Skalierung legt.
Metas KI-Chef Yann LeCun sieht Skalierung zwar als wichtigen Faktor in der KI-Entwicklung, sie allein genüge aber nicht - die Entwicklung menschenähnlicher KI benötige zusätzliche Ideen. Entsprechende Systeme müssten etwa ähnlich wie Babys lernen.