Hyperspace setzt auf die Dezentralisierung von KI-Infrastrukturen und positioniert sich als "Android für KI".
Hyperspace verfolgt zwei Ziele. Die Dezentralisierung der KI, indem fein abgestimmte Modelle über ein Netzwerk von Laptops anstatt lokal oder über ein Rechenzentrum ausgeführt werden.
Und dieses Netzwerk zu nutzen, um mit der eigenen "VectorRank"-Technologie das Sucherlebnis im Internet zu verbessern.
Die Vision ist, die Entscheidungsgewalt von einem zentralisierten Unternehmen in die Hände der Open-Source-Gemeinschaft zu legen.
Lastverteilung
Die Kosten für den Betrieb von Rechenzentren, die Closed-Source-LLMs wie GPT 4 hosten, sind enorm. In diesem Jahr wurden bereits 16 Milliarden US-Dollar investiert und seit 2017 ist ein Anstieg von 37 % zu verzeichnen. Mit der wachsenden Nutzerbasis und den zunehmenden Funktionen der LLMs steigt auch der Druck auf die Rechenleistung.
Die von Hyperspace als "Peer-to-Peer-KI-Engine" bezeichnete Lösung verteilt die Rechenleistung auf das gesamte Netzwerk statt auf eine einzelne Maschine. Das Unternehmen bietet über sein Ökosystem aus Rechenleistung, Daten, Verbraucherprodukten und APIs einen Ansatz an, den es als "Android für KI" bezeichnet.
Open vs. Closed Source
Hyperspace trifft den Kern der Debatte über Open vs. Closed Source und KI-Sicherheit, die eine der treibenden Kräfte hinter dem Konflikt bei OpenAI gewesen zu sein scheint. OpenAI-CEO Sam Altman soll unzufrieden damit gewesen sein, wie Vorstandsmitglied Helen Toner in einem kürzlich veröffentlichten Artikel den Sicherheitsansatz von OpenAI im Vergleich zu dem von Anthropic darstellte.
Diejenigen, die über die Entwicklungsgeschwindigkeit von KI besorgt sind, argumentieren, dass Closed-Source-Modelle wie eine Firewall wirken und böswillige Akteure daran hindern, Zugang zu fortgeschritteneren KI-Modellen zu erhalten und diese für Phishing-Betrug, Malware und Deepfakes zu nutzen.
Einige Marktbeobachter und Verantwortliche gehen davon aus, dass Open-Source-Modelle den Closed-Source-Modellen um etwa sechs Monate hinterherhinken, wobei Metas Llama 3, das für das erste Quartal 2024 erwartet wird, so gut wie GPT 4 sein soll.
Die Kehrseite der Medaille ist jedoch, dass Closed-Source-Modelle nicht transparent sind und großen Akteuren wie Open AI, Microsoft und Google die Macht geben, zu bestimmen, wie ihre LLMs genutzt werden und sogar, wer sie nutzt.
Wie vielfach argumentiert wurde, geben Closed-Source-Modelle zu viel Macht in die Hände von Vorständen und privaten Unternehmen, die unweigerlich versagen, wie wir im Fall von Open AI erlebt haben.
Die Dezentralisierung von KI durch Peer-to-Peer-Netzwerke schafft ein geschlossenes Ökosystem, das nicht von teuren Datenzentren oder mächtigen Privatunternehmen abhängig ist, so die Überzeugung des Start-ups.
Das Problem der KI-Suche
Seit der Einführung von Web-Browsing-Funktionen für LLMs haben wir gesehen, dass dieser Ansatz seine Nachteile hat. Selbst große Anbieter wie MSN verwenden KI-generierte Inhalte für ihre Websites, was zunehmend zu halluzinatorischen und faktisch falschen Artikeln führt.
Dieser Output wird dann von Chatbots wie Bing Chat zurückgegeben, da Suchmaschinen eine hohe Domain-Autorität und eine Vielzahl anderer Faktoren berücksichtigen, wenn sie entscheiden, was sie in ihr Ranking aufnehmen.
Die Lösung von Hyperspace ist ein vektorbasiertes Rankingsystem. Während der PageRank-Algorithmus von Google die insgesamt besten Websites rankt, bietet Hyperspace mit seinem neuartigen VectorRank eine vektorbasierte Suche, die speziell für KI entwickelt wurde, um die besten Teile aller Websites zu mischen und aufeinander abzustimmen.