Inhalt
summary Zusammenfassung

OpenAI vermarktet KI wie kein anderes Unternehmen auf dem Markt. Das übergeordnete Ziel, so OpenAI-CEO Sam Altman, bleibe aber die Artificial General Intelligence (AGI) oder, wie er es ausdrückt, die "magische Intelligenz im Himmel". Aber die wird teuer.

Anzeige

OpenAI-CEO Sam Altman hat gegenüber der Financial Times Interesse bekundet, sich von Microsoft, dem größten Investor des Start-ups, zusätzliche Finanzmittel für die Entwicklung von Künstlicher Allgemeiner Intelligenz (AGI) zu sichern.

Microsoft hatte Anfang des Jahres bereits zehn Milliarden US-Dollar in OpenAI investiert. Altman hofft auf weitere Gelder des Technologieriesen und anderer Investoren, um die hohen Kosten für die Entwicklung fortgeschrittener KI-Modelle zu decken.

Kommerzialisierung als Mittel zum Zweck

Die starken kommerziellen Ambitionen mit Produkten wie ChatGPT, einem GPT-Marktplatz und API-Angeboten für Entwickler sind für OpenAI-CEO Sam Altman nur Mittel zum Zweck.

Anzeige
Anzeige

"Im Moment sagen die Leute: 'Ihr habt dieses Forschungslabor, ihr habt diese API [Software], ihr habt die Partnerschaft mit Microsoft, ihr habt dieses ChatGPT-Ding, jetzt gibt es einen GPT-Shop'. Aber das sind nicht wirklich unsere Produkte", sagt Altman. "Das sind Kanäle für unser einziges Produkt, das Intelligenz ist, magische Intelligenz im Himmel. Ich denke, das ist es, worum es uns geht."

Trotz steigender Umsätze in diesem Jahr sei OpenAI bisher nicht profitabel. Die Partnerschaft mit Microsoft sei so angelegt, dass beide Unternehmen vom gegenseitigen Erfolg profitieren.

In Bezug auf GPT-5 sagte Altman, es sei technisch schwierig vorherzusagen, welche neuen Fähigkeiten das Modell im Vergleich zu seinen Vorgängern haben könnte.

"Bis wir dieses Modell trainiert haben, ist es für uns ein Ratespiel", sagt Altman. "Wir versuchen, besser darin zu werden, weil es für die Sicherheit wichtig ist, die Fähigkeiten vorherzusagen. Aber ich kann nicht genau sagen, was es tun wird, was GPT-4 nicht getan hat."

Altman glaubt nicht, dass Sprache allein für eine AGI ausreicht. Sprache sei zwar ein einzigartiger Weg, um Informationen zu komprimieren, und damit ein wichtiger Faktor für die Entwicklung von Intelligenz, die seinem Start-up bei der Entwicklung von GPT-3 zuerst aufgefallen sei.

Empfehlung

Aber das größte fehlende Puzzleteil für eine KI sei es, den Systemen ein grundlegendes Verständnis der Dinge beizubringen, damit sie neues Wissen für die Menschheit entwickeln können. "Ich denke, das ist das Größte, woran wir im Moment arbeiten können."

Auch der KI-Chef von Meta, Yann LeCun, und einige andere Forscherinnen und Forscher gehen davon aus, dass große Sprachmodelle (Large Language Models, LLM) zwar ein Baustein für noch leistungsfähigere KI-Systeme sind, diese aber allein nicht erreichen können.

KI-Modelle könnten wieder kleiner werden

In der Zwischenzeit arbeitet die KI-Branche, insbesondere die Modellentwickler, daran, die generative KI kostengünstiger und effizienter zu machen. Vor allem Microsoft, das generative KI in großem Maßstab in seinen eigenen Produkten einsetzt, soll an kleineren Modellen forschen.

Kürzlich wurde zudem bekannt, dass OpenAIs LLM GPT-3.5, das dank RHLF das ursprüngliche GPT-3 als Chatbot übertrifft, nur 20 Milliarden Parameter hat. Das ursprünglich 2020 veröffentlichte GPT-3 hat 175 Milliarden Parameter.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Auch das neue GPT-4 Turbo ist vermutlich eine destillierte Variante des ursprünglichen GPT-4. Darauf deutet unter anderem hin, dass OpenAI die Preise stark gesenkt hat, das Modell also effizienter und viel schneller arbeitet. Die KI-Prototypen von OpenAI sind nach den Wüsten Gobi, Sahara und Arrakis benannt, um ihren Fokus auf Ressourceneffizienz zu unterstreichen.

Bei der Vorstellung von GPT-4 Turbo sprach Altman vom "smartesten" Modell - eine recht offene Wortwahl, denn smart kann vieles bedeuten, auch eine höhere Ressourceneffizienz im Verhältnis zur Leistung. Wäre GPT-4 Turbo tatsächlich leistungsfähiger als GPT-4, hätte Altman wahrscheinlich von höherer Intelligenz oder mehr Fähigkeiten gesprochen.

In Richtung Effizienz geht auch ein neues Gerücht des OpenAI-Leakers "Jimmy Apples" auf Twitter.com: Bis Ende 2025 soll OpenAI ein KI-Modell auf dem Entwicklungsplan haben, das deutlich besser ist als GPT-4, aber nur eine bis zehn Milliarden Parameter hat, also einen Bruchteil der angeblichen 1,8 Billionen Parameter des aktuellen GPT-4-Modells.

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Sam Altman, CEO von OpenAI, zeigt Interesse an zusätzlicher Finanzierung von Microsoft und anderen Investoren für die Entwicklung von künstlicher allgemeiner Intelligenz (AGI), um die hohen Kosten für fortgeschrittene KI-Modelle zu decken.
  • Trotz steigender Umsätze in diesem Jahr ist OpenAI bisher nicht profitabel; die Partnerschaft mit Microsoft soll beiden Unternehmen beiderseitigen Erfolg bringen, wobei kommerzielle Ambitionen wie ChatGPT und der GPT-Marktplatz als Mittel zum Zweck - AGI - dienen.
  • Die KI-Industrie arbeitet daran, generative KI kostengünstiger und effizienter zu machen, indem sie kleinere Modelle wie GPT-3.5 und GPT-4 Turbo entwickelt, die mit weniger Parametern eine bessere Leistung bieten und sich auf Ressourceneffizienz konzentrieren.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!