
Die Schweizer Politikwissenschafterin und Historikerin Regula Stämpfli gilt als kluge und streitbare Beobachterin der Gegenwart. Sie fordert: Künstliche Intelligenz muss demokratisch und transparent sein – und einen "Algorithmen-Rat".
Es sind die großen Fragen unserer Zeit, die Regula Stämpfli umtreiben. Die Schweizer Politologin, Bestsellerautorin und Podcasterin beschäftigt sich seit Jahrzehnten mit den Schnittstellen zwischen Politik, Gesellschaft und Technologie – und gilt als scharfsinnige Analytikerin. Seit 2016 gehört sie zu den 100 einflussreichsten Unternehmerinnen in der Schweiz, seit 2011 ist sie von den Medien dort unter den zehn wichtigsten Intellektuellen gelistet. Ihre Publikationen umfassen unter anderem die Themengebiete Globale Geschichte, Datendemokratie, Digitale Transformation, Gender, politisches Design und Demokratie.
Für WOMAN skizziert Stämpfli die Potenziale und Risiken von künstlicher Intelligenz in fünf Bereichen. Das verdeutlicht: Nicht die Technologie an sich ist das Problem, entscheidend ist, wie und wofür sie die Menschen einsetzen.
Demokratie
BEST CASE. Für Stämpfli steht fest: "Künstliche Intelligenz muss demokratisch programmiert werden." Das bedeutet, dass Ökologie, Lebensqualität und die Gleichstellung zwischen Mann und Frau in die Daten, mit denen KI-Systeme trainiert werden, einfließen. Dazu kommen weitere Kriterien die Lebensqualität betreffend, die aber bis heute auch in der Beurteilung westlicher Demokratien fehlen, wie "sauberes Wasser, saubere Luft, die 15-Minuten-Stadt, Sicherheit, Sauberkeit generell, finanzielle Verteilung und Freiheit". Tools wie KI-gestützte Plattformen können Bürgerinitiativen zusammenbringen und Politiker:innen Impulse für bessere, demokratische Politik geben, so die Politologin – in der Schweiz funktioniere das bereits gut. Seit dem Jahr 2017 schlägt sie außerdem einen "Algorithmen-Rat" vor, "der klar die Problematik von KI in der Demokratie aufzeigt und Kontrollmechanismen durchsetzen kann". Einen solchen könnten Regierungen, analog zu einem Presserat, ganz einfach einrichten. Sind die aktuell vorhandenen rechtlichen Rahmenbedingungen ausreichend? Die Expertin meint: "Unsere westlichen Grundgesetze und Verfassungen sind ausgezeichnet. Die darin festgelegten Mediengesetze und Richtlinien könnten sehr einfach auch auf die sozialen Medien, die Digitalisierung und die KI übertragen werden. Seit 2017 liegen einfache Vorschläge bei mir in der Schublade – aber offenbar fehlt der Wille zur demokratischen Gestaltung."
WORST CASE. Gefahren, die etwa von KI-gestützten Wahlkämpfen für die Demokratie ausgehen, sieht Stämpfli durch Deepfakes und in "der Vertiefung von Filterblasen und der daraus entstehenden Polarisierung". Und weiter: "Während im Westen die digitale Aufmerksamkeitsökonomie unsere Politik prägt, ermöglichen Maschinen in nichtwestlichen Ländern totalitäre Überwachung." Als Beispiel nennt Stämpfli den Iran, der "dank der Volksrepublik China sein Überwachungssystem gegen die demokratische Bewegung von 'Frau, Leben, Freiheit' eingerichtet und intensiviert" hat.
Gendergerechtigkeit
BEST CASE. KI birgt Potenzial, Geschlechterungleichheiten abzubauen und Diskriminierung zu minimieren, so Stämpfli. Konkret etwa durch geschlechtsneutrale Bewerbungsverfahren, bei denen von der KI Informationen wie Name, Alter oder Geschlecht aus den Bewerbungsunterlagen entfernt werden. Sie könne zudem genutzt werden, um Datenlücken und Stereotypen aufzudecken und zu korrigieren. "Diese 'Fairness-Audits' prüfen geschlechtsspezifische Muster und liefern Verbesserungsvorschläge." Letztlich gehe es immer darum, die Trainingsdaten in puncto Gleichbehandlung zu verbessern.
WORST CASE. "KI spiegelt die Daten wider, mit denen sie trainiert wurde – und diese sind oft sexistisch und von Stereotypen geprägt“, erklärt Stämpfli. "Unsere Daten enthalten Klischees und Lücken, vor allem bei Frauen. Deshalb zeigt uns die Bildersuche häufig Frauen in Pflegeberufen oder als Mütter, während Männer als Manager dargestellt werden. Hier gibt es noch viel zu tun." Wird KI mit verzerrten Daten trainiert, dann automatisiert und verstärkt sie Vorurteile, warnt sie. Das betrifft etwa Berufswahl, Kreditvergaben oder historische Aufzeichnungen: "Frauen erhalten weniger Kredite, schlechter bezahlte Berufe. In der Geschichtsschreibung werden wieder alle Heldinnen vergessen, die seit Jahrzehnten mühsam von Frauen bekannt gemacht wurden."


Regula Stämpfli lehrt als Privatdozentin an nationalen und europäischen Hochschulen, u. a. an der Universität St. Gallen (HSG), wo sie die renommierten #HannahArendtLectures gründete und leitet. Außerdem war sie über 20 Jahre als Leiterin des Auslands- und Politikjournalismus an der Schweizer Journalistenschule MAZ tätig. regulastaempfli.eu
© ReginaWirtschaft & Innovation
BEST CASE. Laut Stämpfli ermöglicht KI in der datengetriebenen Medizin, Energieversorgung und Logistik präzisere Diagnosen und eine effizientere Ressourcennutzung. "Genial ist KI auch beim Ordnen großer Datenmengen und beim Entwickeln neuer Fragestellungen."
WORST CASE. Gleichzeitig warnt sie vor den Risiken einer Machtkonzentration bei Tech-Giganten. "Die Zerschlagung von Monopolen wie Apple, Microsoft, Google oder Meta ist längst überfällig, denn die Intransparenz dieser Unternehmen bremst Innovation und demokratischen Fortschritt." Ihr Appell: "Wir brauchen dringend öffentliche Plattformen. Öffentliche Daten müssen zugänglich gemacht werden, private Daten hingegen geschützt sein."
Sicherheit vs. Datenschutz
BEST CASE. Stämpfli sieht auch positive Aspekte: "In Asien gibt es dank umfassender Überwachung wenig Kriminalität. Dort errechnen KIs bereits mögliche Sicherheitslücken, Verbrechen und Demonstrationen. Für Frauen bedeutet das beispielsweise, dass sie im Vergleich zu Berlin auch um zwei Uhr morgens sicher durch einen Park gehen können, ohne belästigt zu werden. Alles hat Vor- und Nachteile." Wichtig sei jedoch, dass private Daten strikt nach bestehenden Regelungen geschützt werden. "Was Meta macht, ist längst Diebstahl, eine grobe Verletzung des Urheber-Privatschutzrechts. Hier könnte eine KI dazwischengeschaltet werden, indem Systeme lernen, Informationen ohne personenbezogene Daten zu speichern."
WORST CASE. "Überwachungs-KIs werden schon jetzt von Autokratien und Diktaturen dazu missbraucht, um Bewegungsprofile, Kommunikationsoder Gesichtserkennungsdaten zu sammeln und auszuwerten und diese ideologisch auszuschlachten." Autoritäre Staaten nutzen dies zur Unterdrückung von Opposition und zur Kontrolle von Bürger:innen.
Philosophie
BEST CASE. "KI kann uns helfen, menschliches Potenzial zu erweitern, indem sie Routineaufgaben übernimmt und mehr Raum für Kreativität und Innovation schafft", sagt Stämpfli. Wesentlich sei, dass es immer der Mensch ist, der die Kontrolle behält, und dass Entscheidungen nachvollziehbar bleiben. KI sollte diese unterstützen, nicht ersetzen.
WORST CASE. Stämpfli weist in diesem Zusammenhang auf das Verschwimmen der Grenzen hin: "Wenn KI-Systeme menschenähnliche Verhaltensweisen übernehmen, können sie emotionale Bindungen schaffen, die zu Entfremdung von zwischenmenschlichen Beziehungen führen. Es kommt zu einem Welt- und Wirklichkeitsverlust." Das Problem sei laut ihr nicht nur, "dass Maschinen menschlich werden. Das wäre ja gar nicht so schlecht, sondern das Problem heutzutage ist, dass Menschen wie Maschinen reagieren."