In meinem vorherigen Artikel (Wie KI Macht verschiebt – und warum das uns alle betrifft) habe ich argumentiert, dass die KI-Debatte sich zu sehr auf technische Fehler konzentriert und dabei die eigentliche Machtfrage aus dem Blick verliert: Wer besitzt die Systeme? Wer kontrolliert die Daten? Wessen Werte werden eingebettet?
Diese strukturelle Perspektive bleibt zentral. Doch sie ist nicht vollständig.
Denn es gibt eine zweite Ebene, die oft übersehen wird: die Frage, wie KI unser Denken, unsere Autonomie und unsere Fähigkeit zur kritischen Reflexion verändert – auch und gerade bei Menschen, die glauben, KI gehe sie nichts an.
Beide Ebenen – die individuelle und die strukturelle – sind miteinander verwoben. Wer die eine ignoriert, versteht die andere nicht. Dieser Text versucht, beide zusammenzudenken.
Die doppelte Abhängigkeit
Viele Menschen denken, KI betreffe sie nicht, solange sie nicht direkt mit ChatGPT oder ähnlichen Tools arbeiten. Das ist ein Trugschluss.
Sie begegnen KI täglich: in Service-Hotlines, in personalisierten Newsfeeds, in automatisierten Entscheidungen über Kredite, Versicherungen oder Jobbewerbungen. Sie konsumieren KI-generierte Texte, ohne es zu merken. Sie werden von Algorithmen beeinflusst, die ihre Aufmerksamkeit lenken, ihre Kaufentscheidungen prägen, ihre politischen Überzeugungen verstärken.
Wer nicht versteht, wie das funktioniert, begibt sich in eine abhängige Situation, die er weder durchschauen noch beeinflussen kann.
Diese Abhängigkeit hat zwei Dimensionen:
Erstens: die technisch-kognitive Abhängigkeit. Wer nicht versteht, dass KI-Systeme statistische Muster reproduzieren statt Wahrheit zu erkennen, kann nicht einschätzen, wann eine Antwort verlässlich ist und wann sie halluziniert. Wer nicht weiß, dass diese Systeme auf Trainingsdaten basieren, die Vorurteile und Verzerrungen enthalten, wird diese Verzerrungen für neutral halten. Wer nicht begreift, dass KI keine Intentionen hat, sondern Wahrscheinlichkeiten berechnet, wird ihr menschliche Eigenschaften zuschreiben, die sie nicht besitzt.
Das ist nicht nur ein Bildungsproblem. Es ist ein Autonomieproblem.
Zweitens: die strukturell-politische Abhängigkeit. Wer nicht versteht, dass KI-Systeme Werte einbetten, kann nicht fragen, welche Werte das sind. Wer nicht weiß, dass diese Systeme in privater Hand liegen, kann nicht fordern, dass sie demokratisch kontrolliert werden. Wer nicht begreift, dass die Eigentumsfrage über Macht entscheidet, wird zum passiven Konsumenten einer Technologie, deren Richtung andere bestimmen.
Beide Formen der Abhängigkeit verstärken sich gegenseitig: Wer technisch nicht versteht, kann politisch nicht intervenieren. Wer politisch machtlos ist, wird die technische Entwicklung nicht beeinflussen.
Was heißt hier „Verstehen“?
Die Forderung nach mehr KI-Kompetenz ist mittlerweile allgegenwärtig. Doch was bedeutet „Verstehen“ in diesem Kontext?
Es bedeutet nicht, Algorithmen programmieren zu können. Es bedeutet nicht, neuronale Netze mathematisch zu durchdringen.
Es bedeutet, die richtigen Fragen zu stellen.
Die Philosophin Amanda Askell, die bei Anthropic an der Entwicklung ethischer KI-Systeme arbeitet, hat in ihrer Forschung präzisiert, welche Art von Verstehen notwendig ist. Ihre Arbeit dreht sich um drei zentrale Konzepte, die für unsere Diskussion erhellend sind:
Erstens: Epistemische Demut. KI-Systeme sollten transparent machen, was sie wissen und was nicht. Sie sollten zugeben, wenn sie unsicher sind. Sie sollten nicht so tun, als hätten sie Antworten, wo sie nur Wahrscheinlichkeiten haben.
Das klingt technisch, hat aber direkte Konsequenzen für uns als Nutzende: Wenn ein System nicht kommuniziert, wo seine Grenzen liegen, können wir nicht kritisch damit umgehen. Wir werden zu unkritischen Konsumenten.
Zweitens: Werteeinbettung und Alignment. Jedes KI-System optimiert auf bestimmte Ziele hin. Die Frage ist: Wessen Ziele? Askells Arbeit zu „Constitutional AI“ versucht, KI-Systeme so zu gestalten, dass sie menschliche Werte respektieren. Doch das wirft sofort die nächste Frage auf: Welche menschlichen Werte? Die eines Silicon-Valley-Ingenieurs? Eines europäischen Ethikrats? Einer konservativen oder progressiven Gesellschaft?
Hier wird sichtbar, dass technische Lösungen politische Fragen nicht ersetzen können. „Alignment“ – also die Ausrichtung von KI an menschlichen Werten – ist immer auch eine Machtfrage: Wer definiert, was „gut“ ist?
Drittens: Korrigierbarkeit. KI-Systeme sollten so designed sein, dass Menschen sie korrigieren können, wenn sie falsch liegen. Das setzt voraus, dass die Systeme transparent sind, dass Menschen Einspruch erheben können, dass es Mechanismen gibt, um Entscheidungen zu revidieren.
Doch auch hier: Korrigierbarkeit ist nur möglich, wenn Menschen überhaupt verstehen, dass korrigiert werden muss – und wenn sie die Macht haben, Korrekturen durchzusetzen.
Der blinde Fleck der Alignment-Debatte
Askells Arbeit ist philosophisch präzise und ethisch ambitioniert. Sie versucht, KI-Systeme so zu gestalten, dass sie menschliche Autonomie stärken statt untergraben.
Doch sie operiert innerhalb eines Systems, das die Machtverhältnisse bereits festgelegt hat.
Anthropic, OpenAI, Google, Meta – diese Unternehmen entscheiden:
- Welche Trainingsdaten verwendet werden
- Welche „Safety“-Kriterien gelten
- Was das Modell sagen darf und was nicht
- Welche Nutzungen erlaubt sind
- Welche Werte als „universal“ gelten
Das ist private Governance über eine öffentliche Infrastruktur.
Selbst wenn diese Unternehmen die besten Absichten haben – und viele Forschende dort haben sie tatsächlich –, bleibt die Grundfrage ungelöst: Warum sollten einige wenige Konzerne diese Entscheidungen treffen?
Die Alignment-Debatte suggeriert, es gäbe eine technische Lösung für die Werte-Frage. Aber jede Implementierung ist eine politische Entscheidung, getarnt als technisches Problem.
Ein Beispiel: Wenn ein KI-Modell trainiert wird, „hilfreich, harmlos und ehrlich“ zu sein – ein Prinzip, das Anthropic verfolgt –, klingt das zunächst unproblematisch. Doch wer definiert „harmlos“?
Ist Kritik am Kapitalismus harmlos oder schädlich? Ist die Diskussion über Revolution harmlos? Ist ein Text, der religiöse Gefühle verletzt, harmlos oder nicht? Wer entscheidet, welche politischen Positionen als „ehrlich“ gelten?
Diese Fragen haben keine technischen Antworten. Sie sind Ausdruck von Weltanschauungen, Machtverhältnissen, kulturellen Kontexten.
Die Illusion der technischen Neutralität
Hier zeigt sich eine gefährliche Dynamik: Die Konzentration auf technische Lösungen – bessere Algorithmen, transparentere Modelle, ethischere Trainingsdaten – verschleiert, dass die eigentliche Auseinandersetzung eine politische ist.
„KI-Alignment“ klingt neutral. Es klingt, als ginge es darum, ein System richtig einzustellen, wie man eine Maschine kalibriert.
Doch in Wahrheit geht es um die Frage: Wessen Werte werden zur Norm?
Und diese Frage wird nicht in philosophischen Seminaren entschieden, sondern in Vorstandsetagen, in Investorenrunden, in Konkurrenzverhältnissen zwischen Unternehmen und Staaten.
Solange KI-Systeme in privater Hand sind, ist „Alignment“ immer Alignment mit den Interessen der Eigentümer – egal wie ethisch die Absicht.
Das bedeutet nicht, dass die Arbeit von Forschenden wie Askell wertlos ist. Im Gegenteil: Sie ist notwendig. Wir brauchen philosophische Präzision, um überhaupt zu verstehen, welche Fragen gestellt werden müssen.
Aber sie ist nicht hinreichend.
Wir brauchen ihre Arbeit und eine politische Ökonomie der KI: Wer besitzt? Wer profitiert? Wer entscheidet?
Die Verbindung zwischen individueller und struktureller Ebene
Jetzt wird sichtbar, warum beide Ebenen – die individuelle und die strukturelle – zusammengedacht werden müssen.
Auf der individuellen Ebene geht es darum, dass Menschen verstehen:
- Dass KI-Systeme nicht neutral sind
- Dass sie Werte einbetten
- Dass sie auf bestimmten Daten trainiert wurden, die Verzerrungen enthalten
- Dass sie halluzinieren können
- Dass sie keine Wahrheit erkennen, sondern Muster reproduzieren
Dieses Verstehen ist die Voraussetzung für kritischen Umgang. Es schützt vor Manipulation. Es ermöglicht informierte Entscheidungen.
Auf der strukturellen Ebene geht es darum, dass Gesellschaften verstehen:
- Dass die Kontrolle über KI-Systeme Macht bedeutet
- Dass diese Macht derzeit in den Händen weniger Konzerne liegt
- Dass demokratische Gesellschaften digitale Infrastruktur nicht vollständig privatisieren dürfen
- Dass Regulierung, öffentliche Alternativen und faire Gewinnbeteiligung notwendig sind
Beide Ebenen bedingen einander:
Ohne individuelles Verstehen gibt es keine informierte Öffentlichkeit, die politischen Druck ausüben kann. Ohne strukturelle Veränderung bleibt individuelles Verstehen machtlos.
Wer nur auf individuelle Kompetenz setzt – „Jeder muss lernen, mit KI umzugehen“ –, übersieht, dass Bildung allein keine Machtverhältnisse verändert. Wer nur auf strukturelle Kritik setzt – „Die Konzerne müssen entmachtet werden“ –, übersieht, dass Menschen die Systeme durchschauen müssen, um überhaupt Veränderung fordern zu können.
Was das konkret bedeutet
Die Verbindung beider Ebenen hat praktische Konsequenzen:
1. Verstehen als politischer Akt
Sich mit KI auseinanderzusetzen ist kein privates Weiterbildungsthema. Es ist ein Akt demokratischer Teilhabe.
Wer versteht, wie KI funktioniert, kann:
- Fragwürdige Entscheidungen hinterfragen (Warum wurde mein Kredit abgelehnt?)
- Manipulative Inhalte erkennen (Ist dieser Text KI-generiert?)
- Politische Forderungen formulieren (Warum gibt es keine öffentlichen Alternativen?)
Verstehen ist die Voraussetzung dafür, nicht zum passiven Objekt technologischer Entwicklung zu werden.
2. Politische Bildung muss KI-Strukturen einbeziehen
Es reicht nicht, Menschen beizubringen, wie man einen Prompt schreibt. Politische Bildung muss vermitteln:
- Wer die großen KI-Unternehmen sind
- Wie sie finanziert werden
- Welche Geschäftsmodelle dahinterstehen
- Welche regulatorischen Kämpfe geführt werden
- Welche Alternativen existieren
Nur wer die Strukturen versteht, kann sie verändern.
3. Öffentliche Infrastruktur als Gegenmacht
Demokratische Gesellschaften brauchen eigene KI-Systeme – nicht als Konkurrenz zu privaten Anbietern, sondern als Alternative.
Öffentliche KI könnte:
- Transparent machen, wie sie trainiert wurde
- Demokratisch legitimierte Werte einbetten
- Nicht-kommerziellen Zugang garantieren
- Der Forschung offenstehen
Das ist keine Utopie. Es ist eine Frage politischer Priorisierung.
4. Regulierung, die Macht begrenzt
Regulation darf sich nicht auf Fehlerminimierung beschränken. Sie muss Machtverhältnisse adressieren:
- Datenzugang darf nicht monopolisiert werden
- Rechenkapazität muss öffentlich zugänglich sein
- Gewinne aus KI-basierter Automatisierung müssen gesellschaftlich rückverteilt werden
- Es braucht Transparenzpflichten: Welche Daten? Welche Werte? Welche Entscheidungskriterien?
5. Kollektive Praxis statt individueller Optimierung
Die Frage ist nicht: „Wie werde ich KI-kompetent, um im Wettbewerb zu bestehen?“ Sondern: „Wie organisieren wir uns, um KI demokratisch zu gestalten?“
Das bedeutet:
- Gewerkschaften, die KI-basierte Arbeitsbedingungen verhandeln
- Zivilgesellschaftliche Organisationen, die Transparenz einklagen
- Journalismus, der Machtverhältnisse offenlegt
- Politische Bewegungen, die öffentliche Alternativen fordern
Die Grenzen der Empörung
In meinem vorherigen Artikel habe ich geschrieben, dass Empörung kurzfristig befriedigt, aber keine Machtverhältnisse verändert. Das gilt auch hier.
Es ist verführerisch, Tech-Konzerne zu dämonisieren. Es ist einfach, von „Überwachungskapitalismus“ zu sprechen und dabei stehenzubleiben.
Doch das greift zu kurz.
Viele Menschen, die in diesen Unternehmen arbeiten – auch Forschende wie Amanda Askell –, versuchen tatsächlich, KI ethischer zu gestalten. Ihre Arbeit ist wertvoll. Sie sollte nicht durch pauschale Kritik entwertet werden.
Das Problem ist nicht ihr guter Wille. Das Problem ist das System, in dem sie operieren.
Ein System, in dem:
- Shareholder-Interessen über gesellschaftliche Verantwortung gestellt werden
- Wettbewerbsdruck zu Kompromissen bei der Sicherheit führt
- Profitmaximierung die Logik bestimmt
- Öffentliche Kontrolle systematisch umgangen wird
Die Frage ist also nicht: Sind diese Unternehmen böse? Sondern: Sollten sie überhaupt in dieser Position sein?
Eine reife Haltung bedeutet, Strukturen zu kritisieren, ohne Menschen zu dämonisieren. Sie bedeutet, anzuerkennen, dass gute Absichten in falschen Strukturen nicht ausreichen. Sie bedeutet, konstruktiv zu fragen: Welche Rahmenbedingungen braucht es, damit KI dem Gemeinwohl dient?
Warum jetzt der Moment ist
Die KI-Entwicklung steht an einem Scheideweg.
Noch ist nicht entschieden, ob KI zu einem Werkzeug für eine gerechtere Gesellschaft wird oder zu einem weiteren Motor wachsender Ungleichheit.
Noch gibt es Gestaltungsspielraum.
Doch dieser Spielraum schließt sich. Mit jedem Monat, in dem die Konzentration von Daten, Rechenkapazität und Kapital voranschreitet, werden die Machtverhältnisse zementierter.
Deshalb ist jetzt der Moment, beides zu tun:
Individuell: Sich mit KI auseinandersetzen. Verstehen, wie sie funktioniert. Kritisch bleiben. Nicht alles glauben, was ein System ausgibt. Die richtigen Fragen stellen.
Kollektiv: Politischen Druck aufbauen. Öffentliche Alternativen fordern. Regulierung einfordern, die Macht begrenzt. Sich organisieren.
Beides hängt zusammen. Wer individuell versteht, kann kollektiv handeln. Wer kollektiv handelt, schafft Strukturen, die individuelles Verstehen ermöglichen.
Was Sie konkret tun können
Das klingt abstrakt. Was bedeutet es praktisch?
Auf der individuellen Ebene:
- Bilden Sie sich weiter – nicht nur über Prompts, sondern über Strukturen. Lesen Sie über KI-Ökonomie, über Datenpolitik, über die Geschäftsmodelle der großen Anbieter.
- Fragen Sie nach – wenn eine KI-Entscheidung Sie betrifft (Kreditablehnung, Bewerbungsverfahren, Versicherung): Fordern Sie Transparenz. Legen Sie Widerspruch ein. Nutzen Sie Ihre Rechte.
- Bleiben Sie kritisch – wenn Sie KI-generierte Inhalte konsumieren: Hinterfragen Sie. Prüfen Sie Quellen. Verlassen Sie sich nicht blind auf Systeme.
- Sprechen Sie darüber – in Ihrem Umfeld, in Ihrer Organisation, in Ihrem Betrieb. Machen Sie die Machtfrage zum Thema.
Auf der kollektiven Ebene:
- Unterstützen Sie Qualitätsjournalismus, der Machtverhältnisse offenlegt. Medien wie Perspective Daily (auf deren Artikel ich in meinem vorherigen Text verwiesen habe) leisten hier wichtige Arbeit.
- Fordern Sie von Ihrer Politik konkrete Schritte: Investitionen in öffentliche KI-Infrastruktur, Transparenzpflichten für KI-Systeme, demokratische Kontrolle über digitale Ressourcen.
- Nutzen Sie alternative Dienste, wo möglich. Nicht jeder kann auf Google oder Microsoft verzichten – aber es gibt Bereiche, in denen Alternativen existieren. Ihre Nutzung stärkt diese Alternativen.
- Organisieren Sie sich – in Gewerkschaften, in zivilgesellschaftlichen Organisationen, in politischen Bewegungen. Individuelle Kritik verpufft. Kollektive Macht verändert.
- Bleiben Sie im Gespräch – auch mit Menschen, die anders denken. Die KI-Debatte ist polarisiert. Manche sehen nur Chancen, andere nur Risiken. Beide Extreme greifen zu kurz. Wir brauchen differenzierte Auseinandersetzung.
Die Verbindung denken
Dieser Text hat versucht, zwei Ebenen zusammenzudenken, die oft getrennt diskutiert werden:
Die individuelle Ebene – wie KI unser Denken, unsere Autonomie, unsere kritische Urteilskraft beeinflusst.
Die strukturelle Ebene – wie KI Macht verschiebt, Eigentum konzentriert, demokratische Kontrolle untergräbt.
Beide Ebenen sind real. Beide sind wichtig. Und beide bedingen einander.
Wer nur die individuelle Ebene sieht, landet bei Selbstoptimierung: „Lerne KI zu nutzen, sonst wirst du abgehängt.“ Das ist die neoliberale Antwort – sie individualisiert ein strukturelles Problem.
Wer nur die strukturelle Ebene sieht, landet bei abstrakter Kapitalismuskritik: „Die Konzerne sind das Problem.“ Das ist nicht falsch, aber es bleibt oft handlungsunfähig.
Die Verbindung beider Ebenen eröffnet einen dritten Weg:
Verstehen als Voraussetzung für Autonomie. Autonomie als Voraussetzung für politisches Handeln. Politisches Handeln als Voraussetzung für strukturelle Veränderung. Strukturelle Veränderung als Voraussetzung für eine KI, die dem Gemeinwohl dient.
Worum es im Kern geht
Technologie soll uns dienen – nicht dominieren. Das habe ich in meinem vorherigen Artikel geschrieben, und es bleibt der zentrale Maßstab.
Doch dieser Satz braucht eine Ergänzung:
Technologie kann uns nur dann dienen, wenn wir sie verstehen – technisch und politisch.
Wenn wir verstehen, wie sie funktioniert und wer sie kontrolliert.
Wenn wir kritisch bleiben und uns organisieren.
Wenn wir individuelle Kompetenz entwickeln und kollektive Macht aufbauen.
Die KI-Frage ist keine technische Debatte. Sie ist eine Frage unserer gemeinsamen Zukunft.
Und diese Zukunft wird nicht in Forschungslaboren entschieden, sondern in den Auseinandersetzungen, die wir heute führen – über Eigentum, über Werte, über Macht.
Wir haben Einfluss darauf, welche Richtung eingeschlagen wird.
Aber nur, wenn wir beide Ebenen ernst nehmen: die Frage, wie KI unser Denken formt – und die Frage, wer die Systeme besitzt, die unser Denken formen.
Beides zusammen ergibt ein realistisches Bild. Und erst dieses Bild ermöglicht Handlungsfähigkeit.
Nicht durch Empörung. Nicht durch Technikoptimismus. Nicht durch Resignation.
Sondern durch klares Verstehen, nüchterne Analyse und entschlossenes Handeln – individuell und kollektiv.
Mich interessiert, wie du das siehst. Wenn du magst, teile deine Gedanken unten in den Kommentaren – ich lese und beantworte sie gern.
Anmerkungen und Hinweise
- Im Zusammenhang mit diesem Blogpost möchte ich auf das YouTube-Video von Scobel hinweisen. Er beschreibt sehr anschaulich die geschilderten und weiterer Zusammenhänge. Sehr zu empfehlen: Die KI sagt Nein.
Neueste Kommentare