Anzeige
Skip to content

Weniger Arbeit, gleicher Lohn: OpenAI macht Vorschläge für eine Welt mit Superintelligenz

Image description
Nano Banana Pro prompted by THE DECODER

Kurz & Knapp

  • OpenAI hat ein zwölfseitiges Grundsatzpapier veröffentlicht, in dem das Unternehmen politische Maßnahmen für den Übergang zur Superintelligenz vorschlägt.
  • Dazu gehören ein staatlicher Vermögensfonds, der Erträge aus KI-getriebenem Wirtschaftswachstum direkt an Bürger ausschüttet, höhere Kapitalertragsteuern für Spitzenverdiener, Unternehmenssteuern auf KI-Erträge sowie Pilotprojekte für eine Vier-Tage-Woche ohne Lohnverlust.
  • Das Papier fordert auch, den Zugang zu KI als grundlegend für wirtschaftliche Teilhabe zu behandeln, vergleichbar mit Alphabetisierung oder Stromversorgung.

In einem umfangreichen Grundsatzpapier schlägt OpenAI politische Maßnahmen für den Übergang zur Superintelligenz vor. Darunter: ein staatlicher Vermögensfonds, die Vier-Tage-Woche und höhere Kapitalertragsteuern für Spitzenverdiener.

OpenAI hat ein zwölfseitiges Dokument mit dem Titel "Industrial Policy for the Intelligence Age" veröffentlicht. Darin skizziert das Unternehmen politische Vorschläge, die sicherstellen sollen, dass der Übergang zur Superintelligenz "allen zugutekommt". Die Ideen seien als Diskussionsgrundlage gedacht, nicht als fertiger Forderungskatalog.

Das Unternehmen definiert Superintelligenz als KI-Systeme, die "die klügsten Menschen übertreffen, selbst wenn diese von KI unterstützt werden". Der Übergang sei bereits in vollem Gange. Frontier-Systeme seien von Aufgaben, die Menschen Minuten kosten, zu solchen vorgedrungen, die Stunden dauern. Wenn der Fortschritt anhalte, könnten Systeme bald Projekte bewältigen, die derzeit Monate erfordern.

OpenAI ordnet die eigenen Vorschläge historisch ein und vergleicht den bevorstehenden Umbruch mit der Progressive Era und dem New Deal. Diese hätten nach der Industrialisierung den Gesellschaftsvertrag modernisiert. Der Unterschied laut OpenAI: Dieses Mal müsse es schneller gehen. "Die Entscheidungen, die wir kurzfristig treffen, werden bestimmen, wie Nutzen und Risiken über Jahrzehnte verteilt werden."

Anzeige
DEC_D_Incontent-1

Das Papier warnt vor Arbeitsplatzverlusten, Missbrauch, Kontrollverlust und Machtkonzentration. OpenAI nennt sich dabei selbst als potenziellen Nutznießer. Es bestehe "das Risiko, dass sich die wirtschaftlichen Gewinne bei einer kleinen Anzahl von Firmen wie OpenAI konzentrieren". Das Dokument fokussiert sich zunächst auf die USA, betont aber, dass "die Diskussion und die Lösungen letztlich global sein müssen".

Vermögensfonds, Steuern und Effizienz-Dividenden

Laut OpenAI soll ein "Public Wealth Fund" geschaffen werden, der jedem Bürger einen Anteil am KI-getriebenen Wirtschaftswachstum sichert. Der Fonds solle in diversifizierte, langfristige Vermögenswerte investieren, die KI-Unternehmen und die breitere Wirtschaft abdecken.

Die Erträge sollen direkt an die Bürger gehen, "unabhängig von ihrem Ausgangsvermögen oder Zugang zu Kapital". Wie der Fonds finanziert werden soll, sagt das Papier nicht. Politische Entscheidungsträger und KI-Unternehmen müssten das gemeinsam klären.

Getrennt davon will OpenAI die Steuerbasis modernisieren, damit Programme wie Sozialversicherung und Gesundheitsversorgung langfristig finanziert bleiben. Das Papier nennt höhere Kapitalertragsteuern "an der Spitze", Unternehmenssteuern auf "nachhaltige KI-getriebene Erträge" und "Steuern im Zusammenhang mit automatisierter Arbeit". Firmen, die Mitarbeiter halten und weiterbilden, sollen über lohngebundene Anreize belohnt werden.

Anzeige
DEC_D_Incontent-2

Beim Thema Arbeitszeit wird das Papier besonders konkret. Arbeitgeber und Gewerkschaften sollten in befristeten Pilotprojekten eine 32-Stunden- oder Vier-Tage-Woche bei vollem Lohn testen. Hält die Produktivität, soll die kürzere Woche dauerhaft gelten. Sinken die Betriebskosten durch KI, sollen Unternehmen Anreize bekommen, mehr in Renten, Gesundheitskosten und Betreuungsangebote zu stecken.

Arbeitnehmer sollen KI-Einführung mitgestalten

Beschäftigte sollen ein formelles Mitspracherecht bei der Einführung von KI am Arbeitsplatz erhalten. Sie wüssten am besten, wie ihre Arbeit tatsächlich funktioniert, und sollten mitentscheiden, wo KI zuerst zum Einsatz kommt, etwa bei gefährlichen, monotonen oder zermürbenden Tätigkeiten. Das Papier verlangt zugleich klare Grenzen: KI dürfe weder die Arbeitsbelastung hochtreiben noch Autonomie beschneiden oder faire Bezahlung aushöhlen.

Sozialleistungen sollen vom einzelnen Arbeitgeber entkoppelt werden. "Portable Benefits" sollen Menschen über Jobwechsel, Branchenwechsel und Gründungen hinweg absichern. Voraussetzung sei allerdings, dass die bestehenden Sicherheitsnetze erst einmal verlässlich und schnell funktionieren.

Für den Fall größerer Verwerfungen am Arbeitsmarkt sieht das Papier ein Paket zusätzlicher Hilfen vor: flexiblere Arbeitslosenunterstützung, schnelle Bargeldhilfen, Weiterbildungsgutscheine. Diese Maßnahmen sollen automatisch greifen, sobald bestimmte Warnindikatoren Schwellenwerte überschreiten, und wieder auslaufen, wenn sich die Lage beruhigt.

Wer durch KI seinen Job verliert, soll in der sogenannten Care Economy auffangen werden können: Kinderbetreuung, Altenpflege, Bildung, Gesundheitswesen, gemeindenahe Dienste. KI könne dort Verwaltungsaufwand abbauen, aber die menschliche Verbindung bleibe das Entscheidende. Mit einem "Family Benefit" will OpenAI außerdem Betreuungsarbeit als wirtschaftlich wertvolle Tätigkeit anerkennen. Er soll sich mit Teilzeitarbeit, Weiterbildung oder einer Gründung verbinden lassen.

KI-Zugang, Gründerförderung und Infrastruktur

Der Zugang zu KI soll laut OpenAI so selbstverständlich werden wie Lesen, Strom oder Internet. Ein Basisniveau an KI-Fähigkeiten müsse breit verfügbar sein, auch kostenlos oder günstig.

Wer sich selbstständig machen will, soll "Startup-in-a-Box"-Pakete bekommen: Mikro-Zuschüsse, Musterverträge, geteilte Infrastruktur. Arbeitnehmerorganisationen könnten vermitteln, Weiterbildungen organisieren und bei Vertragsverhandlungen helfen.

Als sofortige Maßnahme fordert OpenAI den Ausbau der Energieinfrastruktur. KI-Rechenzentren sollten "ihre eigenen Energiekosten tragen, damit Haushalte sie nicht subventionieren", und vor Ort Arbeitsplätze und Steuereinnahmen bringen. Neue öffentlich-private Partnerschaften sollen helfen, Finanzierungslücken, Genehmigungsstaus und Standortrisiken beim Bau von Hochspannungsleitungen zu überwinden.

Die Partnerschaften müssten so strukturiert sein, dass Steuerzahler vor kommerziellen Verlusten geschützt werden und die erweiterte Infrastruktur zu niedrigeren Energiekosten für Haushalte führt.

Darüber hinaus soll laut dem Papier ein verteiltes Netzwerk KI-gestützter Labore aufgebaut werden, das die Kapazität zur Überprüfung KI-generierter Hypothesen drastisch erweitert. Diese Labore sollen KI direkt in experimentelle Arbeitsabläufe integrieren und schnelle Iteration zwischen Hypothesenbildung und Tests ermöglichen. Entscheidend sei, dass diese Infrastruktur breit über Universitäten, Community Colleges, Krankenhäuser und regionale Forschungszentren verteilt werde, "nicht konzentriert in einer kleinen Zahl von Elite-Institutionen".

Sicherheitsarchitektur für eine Welt mit Superintelligenz

Der zweite Teil des Papiers widmet sich der gesellschaftlichen Resilienz. OpenAI fordert die Erforschung und Entwicklung von Schutzwerkzeugen gegen Missbrauch in Hochrisikobereichen wie Cyber- und Biorisiken.

Fortgeschrittene KI-Systeme sollen selbst für Bedrohungsmodellierung, Red-Teaming und Robustheitstests eingesetzt werden. Ergänzend sollen komplementäre Schutzsysteme aufgebaut werden, etwa zur schnellen Identifikation und Produktion medizinischer Gegenmaßnahmen bei Ausbrüchen. Durch Beschaffung, Standards und Versicherungsrahmen sollen "kompetitive Sicherheitsmärkte" entstehen, die dafür sorgen, dass Schutzmaßnahmen ebenso schnell besser werden wie die Risiken, gegen die sie schützen.

Daneben schlägt OpenAI einen "AI Trust Stack" vor: Systeme zur Verifikation und Herkunftsnachverfolgung von KI-generierten Inhalten und Aktionen, die Vertrauen aufbauen, ohne flächendeckende Überwachung zu ermöglichen. Für die mächtigsten Modelle sieht das Papier gezielte Audit-Pflichten vor, insbesondere wenn diese "chemische, biologische, radiologische, nukleare oder Cyber-Risiken" materiell vorantreiben könnten. Diese Anforderungen sollen "nur für eine kleine Anzahl von Unternehmen und die fortschrittlichsten Modelle" gelten, um den breiten Zugang zu allgemeiner KI nicht einzuschränken.

Für den Fall, dass gefährliche KI-Systeme bereits in der Welt sind, etwa weil Modellgewichte veröffentlicht wurden oder Systeme sich autonom replizieren, fordert OpenAI die Entwicklung von "Model-Containment-Playbooks". Diese sollen koordinierte Eindämmungsmaßnahmen ermöglichen, analog zu Krisenplänen in der Cybersicherheit oder im Gesundheitswesen.

Zudem schlägt das Papier ein Meldesystem vor, über das Unternehmen Informationen über Vorfälle, Missbrauch und Beinahe-Vorfälle an eine zuständige Behörde weitergeben. Das System solle Lernen und Prävention über Bestrafung stellen. Auch Fälle, in denen Modelle "besorgniserregendes internes Reasoning, unerwartete Fähigkeiten oder andere Warnsignale" zeigten, ohne dass Schaden entstand, sollten gemeldet werden, damit "das Ökosystem aus Beinahe-Vorfällen lernen kann, bevor sie zu realen Vorfällen werden".

Strengere Regeln für Regierungen und Unternehmen

Laut dem Papier sollen Frontier-KI-Unternehmen Governance-Strukturen annehmen, die "öffentliches Interesse in die Entscheidungsfindung einbetten", etwa als Public Benefit Corporations mit "expliziten Verpflichtungen", die Vorteile von KI breit zu teilen, einschließlich "signifikanter, langfristiger philanthropischer Spenden".

Zusätzlich fordert OpenAI, Frontier-Systeme gegen "Corporate oder Insider Capture" abzusichern: durch den Schutz von Modellgewichten und Trainingsinfrastruktur, Audits auf manipulatives Verhalten oder "versteckte Loyalitäten" in Modellen, und Monitoring von Hochrisiko-Deployments, "damit keine Einzelperson oder interne Fraktion KI-Systeme still nutzen kann, um Macht zu konzentrieren".

Für Regierungen fordert OpenAI klare Regeln für den KI-Einsatz mit "besonders hohen Standards für Zuverlässigkeit, Ausrichtung und Sicherheit". Gleichzeitig solle KI genutzt werden, um demokratische Rechenschaftspflicht zu stärken: KI-gestützte Workflows in Behörden würden klarere digitale Aufzeichnungen erzeugen, die Aufsichtsinstitutionen mit KI-Auditing-Tools überprüfen könnten.

Konkret schlägt OpenAI vor, Transparenz-Frameworks wie den Freedom of Information Act zu modernisieren, damit Bürger und Watchdog-Organisationen KI nutzen können, um gezielte Fragen zu Regierungshandeln zu überprüfen. Dabei solle auch geklärt werden, wann KI-Interaktionslogs und Protokolle agentischer Aktionen als Bundesakten gelten, die für bestimmte Zeiträume aufbewahrt werden müssen.

Damit Alignment nicht "nur von Ingenieuren oder Führungskräften hinter verschlossenen Türen definiert" werde, fordert das Papier strukturierte Beteiligungsmechanismen. Entwickler sollten sogenannte Model Specifications veröffentlichen, die beschreiben, wie sich Systeme verhalten sollen. Regierungen sollten diese Standards in demokratischen Werten verankern und Mechanismen für repräsentative öffentliche Beteiligung schaffen.

International schlägt OpenAI ein globales Netzwerk von KI-Instituten vor, das durch gemeinsame Protokolle für Informationsaustausch, gemeinsame Evaluierungen und koordinierte Gegenmaßnahmen zusammenarbeiten soll. Dieses Netzwerk könnte sich langfristig zu einem internationalen Rahmenwerk entwickeln, vergleichbar mit anderen multilateralen Institutionen für Sicherheit und Standards.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Quelle: OpenAI