Ein KI-Unternehmen schreibt Industriepolitik

OpenAI - Gesellschaftsvertrag - ThoughtBite - Dr. Oliver Mack - xm-instituteAm 6. April 2026 hat OpenAI ein 13-seitiges Policy-Papier veröffentlicht, das es in sich hat: “Industrial Policy for the Intelligence Age: Ideas to Keep People First.” Sam Altman vergleicht die Situation mit dem Übergang ins Industriezeitalter und fordert nicht weniger als einen neuen Gesellschaftsvertrag nach dem Vorbild des New Deal. Das Papier kommt zu einem Zeitpunkt, an dem OpenAI selbst unter erheblichem Druck steht, denn gleichzeitig erschienen kritische Recherchen des New Yorker über Altmans Führungsstil und die Glaubwürdigkeit seiner Sicherheitsversprechen.

Warum sollten sich Führungskräfte und Berater im DACH-Raum damit beschäftigen? Nicht wegen der konkreten Policy-Vorschläge, die sich primär auf die USA beziehen. Sondern weil das Papier eine bemerkenswert ehrliche Bestandsaufnahme der erwartbaren Verwerfungen liefert und damit eine Diskussion eröffnet, die auch europäische Unternehmen unmittelbar betrifft.

Die Kernthesen im Überblick

OpenAI argumentiert, dass die Entwicklung von der aufgabenorientierten KI (Minuten-Tasks) über stundenumfassende Arbeitspakete hin zu monatelangen Projekten voranschreitet, die autonome Systeme eigenständig abwickeln können. Diese Prognose ist nicht abstrakt: Sie beschreibt den Übergang von Copilot-Modellen zu vollständig agentischen Systemen, die ganze Wertschöpfungsketten verändern.

Das Papier organisiert seine Vorschläge entlang zweier Achsen: erstens den Aufbau einer offenen, partizipativen Wirtschaft und zweitens die Schaffung einer resilienten Gesellschaft. Zu den konkreteren Vorschlägen gehören ein Public Wealth Fund, der allen Bürgern Anteile am KI-getriebenen Wirtschaftswachstum sichern soll, eine Verschiebung der Steuerbasis von Arbeit auf Kapital einschließlich einer sogenannten “Robot Tax”, Pilotprogramme für die 32-Stunden-Woche bei gleichem Lohn, automatische Sicherungsnetze, die sich an ökonomische Frühwarnindikatoren koppeln, sowie portable Benefits, die nicht mehr an einzelne Arbeitgeber gebunden sind, sondern Menschen über Jobwechsel und Karrierewege hinweg begleiten.

Im Bereich Resilienz fordert OpenAI unter anderem Audit-Regime für Frontier-Modelle, Containment-Playbooks für außer Kontrolle geratene KI-Systeme, demokratische Mechanismen für die Alignment-Definition und ein internationales Netzwerk zum Austausch über KI-Risiken und -Fähigkeiten.

Was an dem Papier bemerkenswert ist

Drei Aspekte verdienen besondere Aufmerksamkeit. Erstens die Offenheit der Risikoanalyse: OpenAI benennt explizit die Möglichkeit, dass autonome Systeme sich selbst replizieren und nicht mehr zurückgerufen werden können. Dass ein führender KI-Entwickler solche Szenarien in ein Policy-Papier schreibt, ist beachtlich und sollte jeden, der KI-Strategie verantwortet, nachdenklich stimmen.

Zweitens die Anerkennung der Konzentrationsdynamik: Das Papier räumt ein, dass ökonomische Gewinne sich bei wenigen Unternehmen konzentrieren könnten, “einschließlich Firmen wie OpenAI.” Diese Selbstreferenz ist ungewöhnlich und wirft die Frage auf, ob sie Ausdruck echten Problembewusstseins ist oder strategische Positionierung vor einem möglichen Börsengang.

Drittens die Forderung nach Worker Voice: OpenAI argumentiert, dass Mitarbeitende tiefes Wissen darüber haben, wie Arbeit tatsächlich funktioniert, und dass dieses Wissen für eine gelingende KI-Integration unverzichtbar ist. Das deckt sich mit Erkenntnissen aus der Komplexitätsforschung: Transformation gelingt nicht durch Top-Down-Dekrete, sondern durch die Einbeziehung derjenigen, die das operative System tatsächlich kennen.

Kritische Einordnung: Was das Papier nicht leistet

Meiner Einschätzung nach hat das Papier einige blinde Flecken, die gerade für europäische Führungskräfte relevant sind.

Das Papier denkt Industriepolitik rein national, obwohl die KI-Transformation global wirkt. Für europäische Unternehmen, die in völlig anderen regulatorischen und kulturellen Kontexten operieren als US-Firmen, bleibt die Übertragbarkeit vieler Vorschläge unklar. Der EU AI Act wird erwähnt, aber nicht wirklich als eigenständiger Gestaltungsansatz gewürdigt.

Die Vorschläge bleiben auf der Ebene von Instrumenten, ohne eine tiefere Auseinandersetzung mit systemischen Dynamiken. Ein Public Wealth Fund klingt gut, aber wie verhindert man, dass er zum politischen Spielball wird? Automatische Safety Nets mit Triggern sind elegant, aber wer definiert die Schwellenwerte, und was passiert, wenn die Disruption nicht entlang messbarer Indikatoren verläuft, sondern schleichend die Qualität von Arbeit verändert?

Aus Komplexitätsperspektive fällt auf, dass das Papier trotz aller Rhetorik über Unsicherheit und Anpassungsfähigkeit im Kern einem linearen Planungsparadigma folgt. Die Idee, dass man Schwellenwerte definiert, an denen automatisch Programme aktiviert werden, setzt voraus, dass die relevanten Variablen ex ante bekannt und messbar sind. Das ist in komplexen Systemen selten der Fall. Sinnvoller wären Ansätze, die auf kontinuierliches Sensing und schnelle, reversible Interventionen setzen, statt auf vorprogrammierte Automatismen. Wer sich für eine vertiefte Auseinandersetzung mit dieser Perspektive interessiert, findet in meinem Beitrag Complexity Leadership für die KI-Ära: Ein Practitioner’s Framework einen konzeptionellen Rahmen, der Uhl-Biens Complexity Leadership Theory, Cynefin und unseren Leadership-Framework zusammenführt.

Was das für Führungskräfte konkret bedeutet

Nehmen wir eine Geschäftsführerin eines mittelständischen Maschinenbauers mit 800 Mitarbeitenden. Sie liest dieses Papier und fragt sich: Was ändert sich für mich? Die ehrliche Antwort: kurzfristig wenig an den Policy-Rahmenbedingungen, aber mittelfristig sehr viel an den strategischen Annahmen, auf denen Personalplanung, Qualifizierung und Organisationsdesign basieren.

Konkret sollten Führungskräfte drei Handlungsfelder im Blick behalten. Das erste ist die Vorbereitung auf den Shift von aufgabenbasierter zu projektbasierter KI-Autonomie. Wenn KI-Systeme nicht mehr nur einzelne Aufgaben unterstützen, sondern ganze Arbeitspakete eigenständig abwickeln, verändert sich die Rolle von Führung fundamental: weg von der Aufgabenzuweisung und Fortschrittskontrolle, hin zur Hypothesenbildung, Kontextsteuerung und Qualitätssicherung von KI-Output.

Das zweite Handlungsfeld ist die Entwicklung eigener Worker-Voice-Mechanismen. OpenAIs Forderung nach Mitarbeiterbeteiligung bei KI-Deployments ist keine Sozialromantik, sondern operativ sinnvoll. Wer KI-Einführung ohne das operative Wissen der Mitarbeitenden plant, produziert teure Fehlimplementierungen. Unternehmen sollten jetzt Formate schaffen, in denen Mitarbeitende systematisch in die KI-Strategieentwicklung eingebunden werden, nicht als Betroffene, sondern als Wissensträger.

Das dritte Handlungsfeld betrifft die Neukalibrierung von Benefits und Arbeitszeitmodellen. Die Idee der “Efficiency Dividends”, also der Umwandlung von KI-bedingten Effizienzgewinnen in bessere Arbeitsbedingungen, ist ein Konzept, das Unternehmen unabhängig von staatlicher Politik umsetzen können. Wer als erster Arbeitgeber in seiner Branche glaubwürdig zeigt, dass KI-Produktivitätsgewinne auch bei den Mitarbeitenden ankommen, hat einen massiven Vorteil im Wettbewerb um Talente.

Fazit

OpenAIs Policy-Papier ist weder die visionäre Blaupause, als die es vermarktet wird, noch die leere PR-Übung, als die Kritiker es abtun. Es ist ein nützliches Dokument, das die Bandbreite erwartbarer Verwerfungen benennt und damit eine Diskussion befeuert, die längst überfällig ist. Für Führungskräfte liegt der Wert weniger in den konkreten Policy-Vorschlägen als in der strategischen Rahmung: Die Frage ist nicht mehr, ob KI Arbeit, Wertschöpfung und Organisation fundamental verändern wird, sondern wie schnell und mit welchen Konsequenzen. Wer darauf erst reagiert, wenn die Politik Rahmenbedingungen setzt, wird zu spät dran sein. Die Zeit für eigene, unternehmensspezifische Antworten auf diese Fragen ist jetzt.

Referenzen

OpenAI. (2026, April 6). Industrial policy for the Intelligence Age: Ideas to keep people first. https://cdn.openai.com/pdf/561e7512-253e-424b-9734-ef4098440601/Industrial%20Policy%20for%20the%20Intelligence%20Age.pdf

Allen, M. & VandeHei, J. (2026, April 6). Behind the curtain: Sam’s superintelligence New Deal. Axios. https://www.axios.com/2026/04/06/behind-the-curtain-sams-superintelligence-new-deal

Fortune. (2026, April 6). Sam Altman says AI superintelligence is so big that we need a ‘New Deal.’ Critics say OpenAI’s policy ideas are a cover for ‘regulatory nihilism’. Fortune. https://fortune.com/2026/04/06/sam-altman-says-ai-superintelligence-is-so-big-that-we-need-a-new-deal-critics-say-openais-policy-ideas-are-a-cover-for-regulatory-nihilism/