Blog Marcel Fratzscher vom 27. April 2026
Die KI-Gefahr droht nicht nur durch Fakes und Jobverlust, sondern durch eine neue Machtökonomie. Es droht ein Kipppunkt für unsere Gesellschaft. Was jetzt geschehen muss.
Der größte Irrtum in der Debatte über künstliche Intelligenz (KI) ist die Annahme, es gehe vor allem um Innovation, Produktivität und Wettbewerbsfähigkeit. Das ist auch ein wichtiger Teil und KI bietet riesige Chancen – um dies vorab klar zu sagen. Aber es geht auch, und in erster Linie, um Macht: Wer bestimmt künftig über zentrale Ressourcen moderner Gesellschaften? Darin liegt eine der größten Gefahren für unsere liberale Demokratie.
Nicht die KI selbst bedroht die Demokratie, sondern die politische Ökonomie ihrer Entwicklung – und das Tempo, mit dem sie in Kriegsführung, Verwaltung, Arbeitswelt, Finanzmärkte und Kommunikation eindringt. Wenn sich KI-Ressourcen bei wenigen privaten Akteuren konzentrieren, dann verschiebt sich Macht aus demokratisch kontrollierten Räumen in intransparente Sphären. Wer KI kontrolliert, kontrolliert Märkte, Informationsflüsse und staatliche Handlungsfähigkeit.
Einige Tech-Milliardäre stellen die Demokratie offen infrage und nehmen Einfluss auf die Politik. So sagt etwa Peter Thiel, dessen Ideologie ich in einer früheren Kolumne analysiert habe: »Ich glaube nicht länger, dass Freiheit und Demokratie miteinander vereinbar sind.«
Diese Kolumne von Marcel Fratzscher erschien am 24. April 2026 in der ZEIT in der Reihe Fratzschers Verteilungsfragen.
Regulierung von KI allein wird künftig nicht mehr reichen, weil private Unternehmen staatlichen Behörden technologisch oft weit voraus sind. Das waren neue Technologien zwar fast immer, aber Tempo und Dominanz der KI schaffen ein unüberbrückbares Ungleichgewicht zwischen Staat und privaten KI-Eigentümern. Genau hier liegt das demokratische Risiko: Wenn Parlamente, Gerichte und Aufsichtsbehörden die Systeme, die sie kontrollieren sollen, nicht mehr verstehen, prüfen oder wirksam begrenzen können, kippt das Machtverhältnis zwischen Staat und Wirtschaft.
Wie real diese Gefahr schon heute ist, zeigen mehrere Felder: Im militärischen Bereich gab es 2024 Berichte, die von den USA geprüft wurden, wonach Israel KI zur Identifizierung von Bombenzielen in Gaza eingesetzt hat. Jüngst kommen Berichte über KI-beschleunigte Kriegsplanung im Irankrieg hinzu; zugleich wird nach dem Angriff auf eine Schule in Minab untersucht, wie dort Zielverifikation und Datenprüfung versagt haben.
Die Gefahr ist auch im zivilen Staat sichtbar. Das niederländische SyRI-System zur Aufdeckung von Sozialbetrug wurde gerichtlich gestoppt, weil es Grundrechte verletzte. Und in Großbritannien markierte ein Behördenalgorithmus Hunderttausende Leistungsbeziehende zu Unrecht als verdächtig. Wenn Bürger*innen nicht wissen, wie solche Systeme funktionieren, und wie sie sich wehren können, wird aus rechtsstaatlicher Verwaltung eine Blackbox.
Die zweite Gefahr ist ein drastischer Anstieg von Ungleichheit. Technologischer Fortschritt schafft nicht automatisch Wohlstand für alle. Er kann Produktivität erhöhen und zugleich Einkommen, Vermögen und Entscheidungsmacht nach oben umverteilen. Die Nobelpreisträger Daron Acemoglu und Simon Johnson zeigen in ihrem Buch Power and Progress, dass neue Technologien den Wohlstand nicht von allein gerechter verteilen; ohne Regeln stärken sie oft zuerst die ohnehin Mächtigen.
Auch hier ist die Entwicklung bereits konkret. Eine Studie des National Bureau of Economic Research (PDF) zeigt, dass stärker KI-exponierte Unternehmen ihre Stellen in nicht KI-nahen Bereichen eher zurückfahren. Das heißt nicht, dass schon heute flächendeckend Massenarbeitslosigkeit zu beobachten wäre; es heißt aber, dass die Verdrängung asymmetrisch beginnt. Zugleich schätzt eine Studie des Europäischen Parlaments, dass bis 2030 mehr als die Hälfte der Beschäftigten in Europa algorithmischem Management ausgesetzt sein könnte.
Dazu kommt die Konzentration an der Spitze. Die OECD warnt: Daten, Rechenleistung und Schlüsselpositionen schaffen in der KI-Wertschöpfung erhebliche Eintrittsbarrieren. Wer die Chips, Clouds und Basismodelle kontrolliert, kontrolliert auch, welche Unternehmen konkurrieren können. Studien zu KI-gestützter Rekrutierung zeigen zudem, dass solche Systeme bestehende Diskriminierungen reproduzieren oder neu kodieren können.
Eine dritte Gefährdung betrifft die Stärkung antidemokratischer Kräfte im In- und Ausland. KI senkt die Kosten für Manipulation, Propaganda und personalisierte Einflussnahme. Autoritäre Akteure und extremistische Netzwerke nutzen diese Möglichkeit bereits. Schon die Plattformlogik sozialer Medien hat öffentliche Debatten polarisiert; KI potenziert diese Dynamik, weil Inhalte nun nicht nur verteilt, sondern in Echtzeit erzeugt und auf Zielgruppen zugeschnitten werden können.
Auch diese Gefahr ist real. OpenAI teilte 2024 mit, fünf verdeckte Einflussoperationen aus Russland, China, Iran und Israel gestoppt zu haben, die Modelle zur manipulativen Online-Kommunikation nutzten. In New Hampshire wurde ein politischer Berater angeklagt, nachdem eine KI-generierte Biden-Stimme per Robocall Wählerinnen und Wähler vom Urnengang abhalten sollte. Studien zeigen zudem, dass politisches Mikrotargeting effektiv ist und sich mit generativer KI automatisieren lässt. Neuere Forschung weist sogar darauf hin, dass bloße Kennzeichnungen als »KI-generiert« die Überzeugungswirkung nicht zuverlässig neutralisieren. Schon kurze Interaktionen mit Chatbots können Einstellungen zu Kandidierenden und politischen Themen messbar verschieben.
Die vierte Gefährdung ist der Kontrollverlust demokratischer Institutionen. Auch hier lohnt Nüchternheit statt Alarmismus. Die akute Gefahr für die Demokratie geht von Systemen aus, die in hochrelevante Bereiche eingebaut werden, ohne dass ihre systemischen Risiken institutionell beherrscht werden. Wer KI in zentralen staatlichen und gesellschaftlichen Bereichen integriert, ohne robuste Aufsicht, Haftung und menschliche Letztentscheidung sicherzustellen, verlagert Verantwortung in Blackboxes.
Kontrollverlust beginnt, wenn Menschen zwar formal »im Loop« bleiben, praktisch aber nur noch vorselektierte Optionen in Sekundenbruchteilen abnicken. Genau deshalb war die Entscheidung von Anthropic, autonome tödliche Anwendungen des US-Kriegsministeriums ohne menschliche Aufsicht abzulehnen, politisch so aufschlussreich: Das Problem ist nicht nur, was ein Modell kann, sondern, wer es in welchem Kontext nutzt.
Die internationale Sicherheitsforschung zeigt, dass KI-Modelle bereits bei Cyberangriffen helfen, Schwachstellen zu finden und Schadcode zu schreiben. Der International AI Safety Report 2026 verweist darauf, dass KI-Agenten in Tests viele reale Schwachstellen fanden und dass staatliche wie kriminelle Akteure KI bereits in ihren Operationen einsetzen. Werden solche Systeme tief in Verwaltung, Finanzmarkt und kritische Infrastruktur eingebaut, ist Kontrollverlust kein fernes Szenario mehr, sondern ein Governance-Problem im Hier und Jetzt.
Eine weitere Gefahr ist subtiler, aber politisch vielleicht die folgenreichste: KI verändert die soziale Architektur liberaler Demokratien. Der Philosoph Yuval Noah Harari beschreibt dies als Kampf um Informationsmacht: Wenn dieselben Schnittstellen künftig zentrale Funktionen von Informations-, Arbeits- und Staatsprozessen dominieren, entsteht eine Infrastrukturabhängigkeit, die Demokratien verwundbar macht. Eine Oxford-Studie zeigt, wie politisches Mikrotargeting durch große Sprachmodelle effizienter und günstiger wird. Gleichzeitig warnen Fachbeiträge, dass Gesichtserkennung bei Protesten einen chilling effect auslösen kann: Schon die bloße Erwartung, identifiziert zu werden, kann vor politischer Teilhabe abschrecken.
Die Folgen dieser Entwicklung sind tiefgreifend. Erstens droht eine Erosion politischer Gleichheit. Formell bleibt das Wahlrecht bestehen, materiell aber wächst die Asymmetrie von Einfluss und Zugang. Zweitens kann das Vertrauen in den Staat weiter sinken, wenn der Eindruck entsteht, er sei gegenüber digitalen Machtzentren ohnmächtig oder sogar von ihnen abhängig.
Drittens verliert die soziale Marktwirtschaft an Glaubwürdigkeit. Wenn Menschen erleben, dass Qualifikation und Arbeit nicht mehr zu Aufstieg führen, wenden sie sich von Institutionen und demokratischen Parteien ab. Demokratie lebt nicht nur von Rechten, sondern auch von realen Teilhabemöglichkeiten. Wer wirtschaftlich marginalisiert wird, verliert oft auch politisch an Stimme. Hier liegt der Kipppunkt, an dem soziale Ungleichheit in demokratische Instabilität umschlägt.
Viertens verengt sich der öffentliche Debattenraum, wenn algorithmisch verstärkte Empörung und automatisierte Einflussnahme die Grenze zwischen Information, Werbung, Manipulation und Lüge verwischen.
Fünftens entstehen neue Versuchungen des Autoritären: für Regierungen, die Kontrolle ausdehnen wollen; für politische Akteure, die Angst und Ressentiment monetarisieren; und für ausländische Mächte, die Schwächen offener Gesellschaften ausnutzen.
Deshalb braucht es eine demokratische KI-Strategie. Wer die Risiken ernst nimmt, muss Institutionen stärken und wirtschaftliche Gegenmacht organisieren. Vor allem aber müssen staatliche Institutionen die Kontrolle zurückgewinnen.
Kritische KI-Infrastruktur ist als öffentliche Machtfrage zu behandeln: Wettbewerbs- und Missbrauchsaufsicht, Datenzugangsregeln, Missbrauchskontrolle und notfalls Entflechtung digitaler Oligopole. Europa braucht zudem eigene Rechenkapazitäten und Beschaffungsstrategien, damit Verwaltungen, Wissenschaft und Mittelstand nicht vollständig von außereuropäischen Plattformen abhängen. Diese Abhängigkeit macht Europa bereits heute erpressbar.
Es braucht auch klare Regeln für Anwendungen in Staat, Polizei und Militär. Keine autonome tödliche Anwendung ohne sinnvolle menschliche Kontrolle. Keine biometrische Massenüberwachung des öffentlichen Raums. Keine Verträge, die pauschal »alle rechtmäßigen Anwendungen« erlauben. Sicherheitsrelevante Systeme müssen Zulassungen und Kontrollmechanismen unterliegen.
Zudem muss der Staat handlungsfähig werden – mit technischer Expertise, digitalisierter Verwaltung und wirksamen Bürgerrechten auf Erklärung, Anfechtung und menschliche Überprüfung. Wer einem KI-System ausgeliefert ist, ohne Einspruchsrecht und ohne Zugang zu Entscheidungsgründen, lebt nicht im digitalen Rechtsstaat, sondern in einer modernisierten Willkür.
Und es braucht eine Verteilungspolitik für das KI-Zeitalter: Bildung, Weiterbildung, Mitbestimmung und Anreize für Technologien, die menschliche Arbeit ergänzen, statt sie zu entwerten. Unternehmen sollten belegen müssen, wie Produktivitätsgewinne in bessere Arbeit, höhere Löhne, kürzere Arbeitszeiten oder breitere Weiterbildung übersetzt werden. Das Recht auf gute Arbeit muss Teil der Demokratie und der sozialen Marktwirtschaft bleiben.
Demokratie und Öffentlichkeit müssen geschützt werden: Herkunftskennzeichnung synthetischer Inhalte, Transparenz bei Werbung und Bots, Missbrauchsregeln, wirksame Plattformpflichten und schnelle Verfahren.
Und besondere Schutzregeln sind nötig für Versammlungsfreiheit und Bürgerrechte. Finanzsystem und kritische Infrastruktur müssen durch Resilienzpläne, Meldepflichten und Stresstests gegen KI-Risiken abgesichert werden.
Schließlich muss Europa gestärkt werden. Nationale Politik allein reicht nicht aus, um globale Tech-Macht zu bändigen. Die EU bietet den Raum, in dem demokratische Staaten Marktgröße, Rechtsstaat und Regulierung bündeln können. Der AI Act, der Digital Services Act und der Digital Markets Act sind kein Endpunkt, sondern ein Anfang – ergänzt durch robuste Umsetzung, gemeinsame Aufsicht und eine industriepolitische Strategie, die demokratische Souveränität stärkt.
Der entscheidende Fehler wäre, die KI-Frage als Spezialthema für Nerds, für Managerinnen und Manager oder für Sicherheitsbehörden abzutun. Es geht um die Grundfrage liberaler Demokratie: Wer kontrolliert die Macht – und in wessen Interesse?
Deshalb brauchen wir nicht weniger Staat, sondern einen besseren, kompetenteren und entschlosseneren Staat; nicht weniger Markt, sondern klare Regeln gegen Machtkonzentration; Innovation im Dienst von Freiheit, Teilhabe und guter Arbeit; und mehr europäische Souveränität.
Überlassen wir KI dem Markt, den Monopolen und den geopolitischen Machtkämpfen, wird sie die Demokratie aushöhlen. Zähmen wir sie institutionell, sozial und demokratisch, kann sie ein Werkzeug des Fortschritts werden. Die Frage ist nicht, ob KI unsere Gesellschaft verändert. Die Frage ist, ob wir sie klug als Chance des Fortschritts nutzen oder ob wir zulassen, dass sie unsere Demokratie entmachtet.
Themen: Arbeit und Beschäftigung , Digitalisierung , Europa