Inhalt
summary Zusammenfassung

Amazon plant, mehrere hundert Stellen in seiner Alexa-Abteilung zu streichen, um sich auf die Entwicklung generativer künstlicher Intelligenz zu konzentrieren, wie aus einem internen Memo hervorgeht.

Das Unternehmen stellt einige nicht näher spezifizierte Initiativen ein, um sich besser auf seine Geschäftsprioritäten und Kundenbedürfnisse auszurichten, einschließlich der Maximierung der Ressourcen und Anstrengungen für generative KI, berichtet GeekWire.

Unsere Investitionen in generative KI bringen auch unsere Vision einer noch intuitiveren, intelligenteren und nützlicheren Alexa näher als je zuvor. Während wir uns weiterentwickeln, verlagern wir einige unserer Bemühungen, um sie besser mit unseren geschäftlichen Prioritäten und den Kundenbedürfnissen in Einklang zu bringen - dazu gehört auch die Maximierung unserer Ressourcen und Anstrengungen im Bereich der generativen KI.

Daniel Rausch, Vizepräsident für Alexa und Fire TV

Die Nachricht kommt, nachdem Amazon kürzlich Experimente mit einer LLM-gesteuerten Alexa angekündigt hat, und Rauschs Memo weist darauf hin, dass eine zukünftige Version von Alexa für das Unternehmen immer noch wichtig ist.

"Die Integration eines neuen großen Sprachmodells in eine sprachgesteuerte, persönliche KI war und ist eine enorme wissenschaftliche und technische Herausforderung. Ich freue mich darauf, dass unsere Kunden bald die Zukunft von Alexa […] erleben werden", schrieb Rausch.

Anzeige
Anzeige

OpenAI hat vor ein paar Wochen ChatGPT mit Sprachunterstützung aktualisiert, sodass es Alexa ähnelt, aber leistungsfähiger ist. Google Assistant ist ebenfalls weiter entwickelt als Alexa und wird wahrscheinlich bald ein Gemini-Update erhalten, das ihn ähnlich wie ChatGPT mit Sprachunterstützung nützlicher machen sollte.

Rettet Olympus Amazon das KI-Cloud-Geschäft?

Amazon entwickelt Berichten zufolge ein großes Sprachmodell (LLM) namens Olympus, um mit OpenAI und Microsoft auf dem Markt für generative KI zu konkurrieren, so eine anonyme Quelle von The Information. Das neue Modell soll Amazons aktuelles KI-Modell Titan übertreffen, das deutlich hinter den Modellen von OpenAI, Google und Open-Source-Modellen zurückbleibt.

Amazon investiert außerdem bis zu vier Milliarden Dollar in Anthropic, einen OpenAI-Konkurrenten. Ein Exklusivvertrag ähnlich dem von Microsoft und OpenAI ist jedoch unwahrscheinlich, da Google ebenfalls zwei Milliarden Dollar in Anthropic investiert hat.

Wenn Google Gemini im ersten Quartal 2024 auf den Markt bringen wird und Microsoft die OpenAI-Modelle weiter exklusiv anbieten kann, wird Amazon der einzige große Cloud-Anbieter ohne exklusives LLM-Angebot sein. Das ist eine Bedrohung für das Wachstum des Cloud-Segments.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Amazon plant, Hunderte von Stellen in seiner Alexa-Abteilung zu streichen, um sich auf die Entwicklung neuer Technologien der generativen KI zu konzentrieren, wie aus einem internen Memo hervorgeht.
  • Berichten zufolge arbeitet das Unternehmen an einem großen Sprachmodell namens Olympus, um mit OpenAI und Microsoft auf dem Markt für generative KI zu konkurrieren.
  • Amazon investiert ebenfalls bis zu vier Milliarden Dollar in Anthropic, einen OpenAI-Konkurrenten, aber ein Exklusivvertrag ist unwahrscheinlich, da Google ebenfalls zwei Milliarden Dollar in das Unternehmen investiert hat. AWS benötigt ein exklusives LLM, um besser im KI-Cloud-Geschäft mit Microsoft und Google konkurrieren zu können.
Quellen
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!