Künstliche Intelligenz verändert Machtverhältnisse
Über künstliche Intelligenz wird gesprochen wie über das Wetter, mit etwas Angst, etwas Begeisterung, aber vor allem mit einem Gefühl der Unvermeidbarkeit. Als würde sie einfach geschehen und nicht durch menschliches Handeln entstehen.
So ist es nicht. Die Frage ist nicht mehr, was künstliche Intelligenz kann, sondern wessen Welt sie aufbaut.
Die Gewinner sind bereits erkennbar. Große Technologieunternehmen, Logistikfirmen und der Finanzsektor gehören zu den Profiteuren, also jene, die Zugang zu Daten haben und in der Lage sind, diese zu verarbeiten.
Künstliche Intelligenz arbeitet ohne Pause, verlangt keinen Lohn und im Gegensatz zur Lufthansa oder der Deutschen Bahn streikt sie nicht. Sie optimiert Prozesse, beschleunigt Abläufe und senkt Kosten. Doch jede eingesparte Summe bedeutet an anderer Stelle den Verlust von Arbeitsplätzen, Rollen oder Bedeutung. Gleichzeitig schwindet die Kontrolle darüber, wie Entscheidungen getroffen werden.
Es beginnt sich normal anzufühlen, dass Menschen keine Kontrolle mehr über Entscheidungen haben, die ihr eigenes Leben betreffen. Es handelt sich nicht nur um eine technologische Revolution, sondern um eine Umverteilung von Arbeit ohne gesellschaftliche Vereinbarung.
Wenn Daten fehlen, fehlen auch Menschen
Künstliche Intelligenz denkt nicht, sie wiederholt. Und sie wiederholt das, womit sie trainiert wurde. Internetmüll, historische Vorurteile und unsichtbare Verzerrungen werden zur vermeintlichen „Intelligenz“, sobald sie in großem Maßstab reproduziert werden.
Das Problem liegt nicht nur darin, dass KI Fehler macht, sondern dass sie systematisch Fehler macht. Fehler sind Teil des Systems. Wenn Daten fehlen, etwa über Minderheiten, Frauen oder kleinere Gemeinschaften, dann existieren diese auch nicht in den Entscheidungen.
Das ist kein technischer Mangel, sondern eine politische Entscheidung darüber, wessen Erfahrungen berücksichtigt werden. Solche Lücken lassen sich nicht einfach schließen, da viele Daten historisch nie erhoben wurden. Ein bekanntes Beispiel sind Airbags, die auf den „durchschnittlichen Mann“ ausgelegt waren und bei anderen Körpergrößen schlechter funktionierten. Künstliche Intelligenz reproduziert solche Verzerrungen, jedoch schneller und weniger sichtbar.
Fehler entstehen in Sekunden
Künstliche Intelligenz erklärt nicht, übernimmt keine Verantwortung und versteht nicht, was sie tut. Dennoch wird sie zunehmend in Bereichen eingesetzt, in denen Entscheidungen reale Auswirkungen haben, etwa bei Einstellungen, Kreditvergabe, medizinischen Diagnosen oder im Rechtssystem. Wir übertragen Entscheidungsgewalt auf ein System, dessen Funktionsweise wir selbst nicht vollständig verstehen.
Das ist bequem, aber riskant. Wenn eine Entscheidung falsch ist, bleibt unklar, wer verantwortlich ist. Der Entwickler, die Datenbasis, der Nutzer oder das System selbst?
Ein verbreitetes Narrativ lautet, dass KI vor allem einfache Jobs ersetzt. Tatsächlich betrifft der Wandel auch hochqualifizierte Berufe. Analysten, Juristen und Ärzte, also Tätigkeiten, die auf Mustererkennung basieren, stehen ebenfalls unter Druck.
Das bedeutet nicht, dass Menschen verschwinden, sondern dass sich die Bedeutung von Arbeit verändert. Auch Wissenschaft und Journalismus sind betroffen, obwohl sie als Kontrollinstanzen der Gesellschaft fungieren. Es ist sehr einfach, KI-generierte Inhalte als Journalismus oder Wissenschaft auszugeben, die Öffentlichkeit und Politik täuschen. Falschinformationen zu widerlegen ist deutlich schwieriger, als sie in Sekunden zu verbreiten. Gesellschaft, Bildungssystem und Politik sind darauf nicht vorbereitet.
Größtes Risiko: Gleichgültigkeit
Die Entwicklung künstlicher Intelligenz schreitet in einem Tempo voran, das kaum Raum für gesellschaftliche Abstimmung lässt. Regulierung hinkt hinterher, Debatten bleiben auf Expertenkreise beschränkt, während viele Menschen Werkzeuge nutzen, deren Auswirkungen sie nicht verstehen. Wie groß darf die Fehlerquote sein, wenn eine Maschine halluziniert oder falsche Entscheidungen trifft?
Während solche Fragen offen bleiben, werden bereits heute Entscheidungen getroffen, die die Zukunft prägen. Welche Daten werden gesammelt? Wer besitzt sie? Wofür werden sie genutzt? Und in wessen Interesse arbeiten die Systeme? Wenn diese Fragen unbeantwortet bleiben, liegt das Problem nicht in der Technologie, sondern in der Machtverteilung.
Auch kleinere Länder wie z. B. Estland verfügen grundsätzlich über das Potenzial, digitale Vorreiter zu sein, berichtet das estnische Portal Äripäev. Doch ohne klare Strategie besteht die Gefahr, lediglich Konsument fremder Technologien zu bleiben. Das bedeutet Abhängigkeit. Und für kleine Staaten auch Verwundbarkeit.
Wenn Kontrolle erhalten bleiben soll, sind Investitionen nicht nur in Technologie, sondern auch in Bildung, kritisches Denken und Diversität notwendig. Künstliche Intelligenz ist nicht nur ein Werkzeug, sondern ein Spiegel gesellschaftlicher Strukturen.
Künstliche Intelligenz ist nicht neutral
Künstliche Intelligenz ist weder gut noch schlecht, aber sie ist auch nicht neutral. Sie verstärkt bestehende Strukturen wie Ungleichheit, Effizienzdenken und Profitorientierung. Wenn wir nicht eingreifen, wird das zur Norm.
Damit stellt sich nicht mehr die Frage, ob künstliche Intelligenz kommt, sondern ob diese Entwicklung unkontrolliert geschieht oder aktiv gestaltet wird. Es lohnt sich, eine neue Gewohnheit zu entwickeln, nämlich KI-Entscheidungen bewusst wahrzunehmen und einzugreifen, wenn Fehler auftreten.
Die Entwicklung betrifft alle hochdigitalisierten Volkswirtschaften. Mit wachsender Abhängigkeit von KI-Systemen steigen auch die Anforderungen an Regulierung, Bildung und technologische Eigenständigkeit, um Kontrolle über zentrale wirtschaftliche Prozesse zu behalten.
