BARFUSS LogoDas Südtiroler Onlinemagazin
BARFUSS LogoSüdtiroler Onlinemagazin

Support Barfuss

Werde Unterstützer:in und fördere unabhängigen Journalismus

BARFUSS LogoDas Südtiroler Onlinemagazin
Teseo La Marca
Veröffentlicht
am 08.08.2023
LebenInterview mit Roland Benedikter

Künstliche Intelligenz in der Politik: Utopie oder Albtraum?

Veröffentlicht
am 08.08.2023
Algorithmen-geleitete Politik ist wohl unvermeidlich. Aber ob die „Algokratie“ liberal sein wird oder zur KI-Diktatur ausartet, hängt von uns ab. Was jetzt zu tun ist, verrät der Soziologe und KI-Experte Roland Benedikter.
Damit BARFUSS weiterhin hinterfragen, aufklären, erzählen und berühren kann, brauchen wir DEINE Unterstützung!
Werde Teil unserer Community.
Teile unsere Story
andy-kelly-0E_vhMVqL9g-unsplash

Künstliche Intelligenz (KI) hat zwei Gesichter. Der Soziologe Roland Benedikter spricht von „Hyperkomplexität und Tiefenambivalenz“, das bedeutet: Je fortgeschrittener eine Technologie ist, desto mehr Risiken birgt sie. Man kann KI sowohl für Fortschritt in Medizin, Wirtschaft und Gesellschaft als auch für Überwachung und politische Repression einsetzen.

Für Benedikter, Mitglied im Zukunftskreis des deutschen Forschungsministeriums, ist alles denkbar: das Ende der Demokratie und Massenüberwachung wie in China oder bedingungsloses Grundeinkommen dank KI.

Welche Arten der Nutzung überwiegen werden, die positiven oder die negativen, hängt nicht von der künstlichen, sondern von der menschlichen Intelligenz ab. Es liege an uns, KI-Anwendungen zu regulieren und die Weichen zu stellen, sagt Benedikter, der seit vielen Jahren zu den Veränderungen, die der Einsatz von künstlicher Intelligenz (KI) bringen wird, forscht.

Was uns in den nächsten Jahren bevorsteht und warum Demokrat:innen sich bei der Gestaltung des KI-Zeitalters beeilen sollten, erklärt der Experte im Interview.

BARFUSS: China gilt schon jetzt als KI-Dystopie schlechthin. Andere sprechen sogar von einem möglichen Ende der Menschheit. Was ist an solchen Untergangsszenarien dran?

Roland Benedikter: Alle Väter der Künstlichen Intelligenz (KI) warnen inzwischen ausnahmslos vor dem, was sie selbst in die Welt gesetzt haben. Darunter sind etwa Geoffrey Hinton, Joshua Bengio, Emad Mostaque und Blake Lemoine. Künstliche Intelligenz, so lauten die finstersten Szenarien etwa von Elon Musk oder Stephen Hawking, könnte die Menschheit sogar vernichten. Denn ist einmal die Infrastruktur durch KI gesteuert, könnte die KI laut Musk entscheiden, die Infrastruktur zu unterbrechen und die Menschheit damit auszulöschen. Warum sollte sie das tun? Sobald die KI einsieht, dass der Mensch der einzige ist, der ihr den Stecker ziehen kann, ist es in ihrem Interesse, die Bedrohung durch den Menschen vorwegnehmend zu eliminieren – sagt zum Beispiel Nick Bostrom, der Direktor des Zukunft der Menschheit Instituts der Uni Oxford. KI birgt also nach übereinstimmender Meinung aller Sachverständigen eine Reihe von Gefahren. Viele von ihnen liegen allerdings in der Zukunft.

Roland Benedikter

Es gibt aber auch bereits Probleme in der Gegenwart?

Eine der größten, bereits heute real existierenden Herausforderungen ist die flächendeckende Massenüberwachung durch KI in China. Sie erstickt das letzte bisschen Freiheit und Intimität. China hat einen Überwachungs- und Kontrollstaat errichtet, den es so in der Menschheitsgeschichte noch nie gegeben hat. Leider setzen wir uns damit in Europa viel zu wenig auseinander. Dabei könnten wir von diesem Negativbeispiel viel darüber lernen, wie wir KI positiv integrieren, und was wir vermeiden sollten.

Diktatorische Regimes nutzen KI also, um die staatliche Unterdrückung noch weiter zu perfektionieren. Autoritär waren diese Staaten aber auch vorher schon – was hat das also mit uns zu tun?

Die staatliche Überwachung beginnt in China damit, dass in den Schulen systematisch die Körpersprache und die Mimik von Kindern durch KI-verbundene Kameras ausgewertet wird. Anhand dessen sagt die KI schon in frühem Alter vorher, ob ein:e Schüler:in später zum Dissidenten werden könnte. Nach der Einordnung dieser Voraussage in Chinas soziales Punktesystem, durch das jede:r Bürger:in anhand all seiner/ihrer Taten in Realzeit als gut oder schädlich klassifiziert wird, wird das Kind, das als potentieller Dissident gilt, von bestimmten Programmen und Laufbahnen von vornherein ausgeschlossen – bevor es überhaupt etwas getan hat. All das geschieht für über eine Milliarde Menschen automatisiert.

Das ist nicht das einzige Beispiel?

Ein weiteres Beispiel sind Drohnen, die als Vögel getarnt, die Bürger:innen von oben überwachen. Weil man echte und falsche Drohnen-Überwachungs-Tauben am Himmel nur mehr schwer unterscheiden kann, leben die Menschen im Bewusstsein, ständig und überall überwacht zu werden. Gedanken und Taten, die einen mit dem Staat in Konflikt bringen könnten, werden dadurch im Keim erstickt.

Wo ist aber die Bedrohung für stabile demokratische Gesellschaften?

Wie stabil sie bei flächendeckender Einführung von KI bleiben werden, ist eben die Frage. Wir haben 2022 im Zukunftskreis des deutschen Bundesministeriums für Bildung und Forschung eine sogenannte Wertestudie veröffentlicht, aus der hervorgeht, dass etwa 20 Prozent der Menschen – und etwa die Hälfte der befragten Jugendlichen – für die Einführung eines sozialen Punktesystems auch in Deutschland sind. 12% sind unentschieden. Warum? Ein Teil der Bevölkerung hat eine Art Kontrollverlust-Psychologie entwickelt, wie es mein BMBF-Kollege, VW-Trend- und Vorausschauchef Wolfgang Müller-Pietralla nennt. In den USA zeigen jüngste Umfragen, dass sogar 72 Prozent der Amerikaner:innen glauben, dass unsere demokratischen Regierungen die Dinge nicht unter Kontrolle haben. Überraschenderweise auch junge Menschen, die eine System-Krise nach der anderen erlebt haben und nichts anderes kennen, wünschen sich einerseits einen starken Mann, aber auch ein KI-gesteuertes soziales Punktesystem, um Ordnung und Sicherheit herzustellen. Das würde unweigerlich dazu führen, dass Überwachungsinstrumente sozialen Fehlverhaltens mit KI ausgestattet werden.

Die Realität der KI als umfassendes Sozialinstrument ist also gar nicht so weit weg, sondern kommt mit der Debatte über Automatisierung unweigerlich auch zu uns.

Damit das umgesetzt wird, müssten solche Ideen auch politischen Rückhalt genießen.

Proponenten eines sozialen Punktesystems sind in Deutschland zum Beispiel ein Teil der Grünen und der Linken. Man verspricht sich davon eine bessere Bekämpfung der Steuerhinterziehung und mehr Nachhaltigkeit. Das soziale Punktesystem wäre vielleicht zwar freiwillig, aber man könnte sich ihm tatsächlich nur schwer entziehen. Das System würde laut manchen Grünen die Menschen faktisch zu einer nachhaltigeren Lebensführung zwingen. Wenn jemand beispielsweise einen SUV fährt, würden automatisch bestimmte Maßnahmen greifen – eine höhere Besteuerung oder der Ausschluss von bestimmten Strecken oder Leistungen. Es gibt eine große Debatte darüber, ob ein solches Punktesystem überhaupt mit den Grundrechten eines liberalen Rechtsstaats vereinbar wäre. Die Realität der KI als umfassendes Sozialinstrument ist also gar nicht so weit weg, sondern kommt mit der Debatte über Automatisierung unweigerlich auch zu uns.

Welche konkreten Bedrohungen gehen noch von KI für demokratische Gesellschaften aus?

Feindliche Staaten könnten KI-gesteuerte Desinformationskampagnen nutzen, um das Fundament der Demokratie, das Vertrauen in Fakten, auszuhöhlen. Manche behaupten sogar, dass die Funktionsweise von KI grundsätzlich antidemokratisch wirkt. KI sammelt unzählige Daten und berechnet dann die richtige Entscheidung. Dazu bedarf es keiner Diskussion, keines demokratischen Austausches von Meinungen.

Dafür trifft sie aber die prozentuell „besseren“ politischen Entscheidungen?

Stellen Sie sich vor, eine Gemeinde nutzt KI, um zu entscheiden, ob es Sinn macht, die Bäume in einer bestimmten Straße zu fällen. Die KI berechnet nun zehntausende Daten: die Bodenbeschaffenheit, die Art, das Alter und die Höhe der Bäume, die erwartete Klimaveränderung in den kommenden Jahren, die Stadtentwicklung in vergleichbaren Gebieten, Umfragewerte über Bäume in Städten, und so weiter. All das berechnet die KI in Sekundenschnelle, vergleicht es mit Daten und Entwicklungen auf der ganzen Welt, und spuckt dann eine Entscheidung aus, die auf einer derartig umfassenden Menge von natur- und sozialwissenschaftlichen Daten beruht, die kein Mensch je hätte sammeln und integrieren können.

Das Problem bei der KI in der Politik ist, dass hier nach und nach eine Meinungsdiktatur entstehen könnte, die den Dialog und die Debatte überflüssig machen.

Das klingt erstmal großartig: bessere, effizientere, nachhaltigere Entscheidungen dank KI.

Das Problem dabei ist, dass hier nach und nach eine Meinungsdiktatur entstehen könnte, die den Dialog und die Debatte überflüssig machen. Und damit letztlich auch die Demokratie. Ich will den Bürgermeister sehen, der angesichts einer solchen KI-Entscheidung auf der Grundlage von Millionen Daten noch behauptet: Das ist nur Entscheidungsvorbereitung, ich entscheide mich jetzt aber ganz anders, als die KI rät. Die KI sagt, wir sägen die Bäume um – ich sage, wir lassen sie stehen. Dieser Bürgermeister wird in 10 Jahren sehr viel Mut haben müssen, und er wird sich sehr, sehr gut vorbereiten müssen – ähnlich gut wie die KI.

Wir müssen alles tun, damit KI nicht – schleichend oder sogar offen – Partizipation und Dialog – das Wesen von Demokratie – durch Datenberechnung ersetzt.

In 10 oder 20 Jahren entscheidet also faktisch die KI, nicht mehr der Mensch?

Es gibt eine subtile Intrusion der KI in der Politik, und die wird mit jedem Jahr stärker. Selbst wenn KI noch lange nicht, oder nie, autonom entscheidet, wird wohl bald keine begründete Entscheidung mehr ohne die Beteiligung von KI stattfinden. Demokratie wird sich dann ändern, nicht mehr dieselbe sein. Wir müssen alles tun, damit KI nicht – schleichend oder sogar offen – Partizipation und Dialog – das Wesen von Demokratie – durch Datenberechnung ersetzt.

Gibt es das schon, dass sich Politiker:innen von KI beraten lassen?

Auch da müssen wir nach China blicken, der aktuellen KI-Gesellschaft schlechthin. Dort lässt man sich sogar in der Außenpolitik schon von KI beraten, zum Beispiel bei der Frage, ob man in Taiwan eine Invasion starten soll. Während man in demokratischen Gesellschaften also noch vorsichtig ist, mit solchen Dingen zu experimentieren, weil man auch die Gefahren der Entmenschlichung von Entscheidungen sieht, drücken China und andere autoritäre Staaten aufs Gas. Aber wenn eine konkurrierende Großmacht wie China dank KI stärker, schneller und schlagkräftiger wird, ist es nur eine Frage der Zeit, bis auch westliche Gesellschaften KI-Systeme in der Politik übernehmen. Schließlich will im globalen Wettbewerb niemand auf der Verlierer-Seite stehen. Die entscheidende Frage wird sein, wie.

Es gibt im Grunde zwei typologische Szenarien. Entweder begrenzt Algokratie – so, wie ich es vorhin beschrieben habe – auf schleichendem Wege die Demokratie. Oder es gelingt, diese Entwicklungen liberal zu gestalten und demokratische Grundprinzipien, wie Teilhabe, Diversität und Abstimmung, aufrechtzuerhalten.

Wenn KI in der Politik entscheidet und faktisch herrscht, spricht man auch von „Algokratie“ – der Herrschaft der Algorithmen. Forscher und Intellektuelle haben in den letzten Jahren dazu aufgerufen, die Algokratie, die sie in manchen Aspekten für unvermeidlich halten, liberal und möglichst demokratisch zu gestalten.

Es gibt im Grunde zwei typologische Szenarien. Entweder begrenzt Algokratie – so, wie ich es vorhin beschrieben habe – auf schleichendem Wege die Demokratie. Oder es gelingt, diese Entwicklungen liberal zu gestalten und demokratische Grundprinzipien, wie Teilhabe, Diversität und Abstimmung, aufrechtzuerhalten. Es gibt mehrere Manifeste von progressiven Gruppen, die genau dazu aufrufen – so etwa das Liberale Algokratische Manifest (Liberal Algocracy Manifesto) von 2019 und zuletzt die Warnung des Centers for United Nations Constitutional Research, einer UNO-kritischen Gruppe.

Was ist konkret zu tun?

Eine Möglichkeit wäre, das Datenfundament, mit dem die KI arbeitet, gezielt mit werteorientierten Informationen, das heisst zum Beispiel mit ethischen, antirassistischen und humanistischen Grundsätzen und Prinzipien zu füttern. So wäre die KI darauf getrimmt, nicht allein im Sinne von größtmöglicher Effizienz zu „herrschen“, sondern den Menschen als prekäres Wesen in all seiner Endlichkeit einzubeziehen und diese Endlichkeit zu schätzen. Denn der entscheidende Unterschied zwischen menschlicher und künstlicher Intelligenz ist nicht nur, dass letztere kein endliches Bewusstsein hat. Die KI hat auch keinen Realitätsbezug, weil die Zeit ihr als ontologische Erfahrung fehlt. Sie weiß deshalb nicht, was Realität ist und dass Daten und Realitätserfahrungen nicht übereinstimmen. All das hätten demokratische Regierungen den KI-Algorithmen schon vor Jahren beibringen sollen. Wir müssen es spätestens jetzt tun.

Können wir uns mithilfe von KI auch vor Bedrohungen durch KI schützen, etwa vor Desinformationskampagnen?

Das wird ein sehr schwieriges Unterfangen, aber es sollte versucht werden. Man sieht am Beispiel ChatGPT, dass es nahezu unmöglich ist, festzustellen, wie eine bestimmte KI-Antwort zustande gekommen ist. Jemand, der aufdecken will, kommt immer nachher, rekonstruiert, ist aber nicht voraus. Es ist das klassische Problem der Eule Minervas von Hegel: die Vernunft kommt immer erst nachher, in einer gewissen Weise also immer zu spät. Darin liegt ihre Natur, und das muss nicht notgedrungen schlecht sein. Man kann diesen Prozess aber auch beeinflussen, indem man Fakten und wertorientierte Informationen in den Vordergrund stellt. Ein Beispiel dafür ist Elon Musks TruthGPT. Das ist der Versuch, ein KI-Programm zu entwickeln, das von Anfang an in seinen Lernprozessen darauf spezialisiert ist, die Wahrheit von der Unwahrheit zu unterscheiden. Welche Aussichten auf Erfolg bestehen, ist derzeit schwer zu sagen.

Warum ist das ambitioniert?

Im Falle von TruthGPT gibt man der KI ein anderes ideologisches Grundgerüst mit, so wie man ein Kind erzieht, und die KI lernt, anderen KIs zu widersprechen, sie zu korrigieren und zu informieren. Aber das hat Grenzen. Stellen Sie sich einen Schulhof vor, auf dem Hunderte nur raufen und sich austoben wollen, und da ist ein einziges wohlerzogenes, friedliches Kind, das sich an die Regeln hält. Da muss dieses eine Kind schon sehr besonders und beeindruckend sein, um sich gegen alle anderen durchzusetzen.

In der Debatte darüber, wie KI die Gesellschaft umkrempeln wird, kursieren viele Untergangsvisionen. Zu viele?

Ich sehe die Debatte in der Tat zu apokalyptisch geprägt. Wer Verantwortung trägt, muss die möglichen negativen Folgen einer Technologie benennen. Die Kassandra-Funktion ist notwendig, und sie war vielleicht nie wichtiger als heute. Das vorausgesetzt, stürzen sich aber viele Medien und auch einige Wissenschaftler sensationsheischend auf die allerschlimmsten Szenarien, auf die es leider Hinweise gibt, ohne aber über die positiven Chancen zu sprechen. Als Berufsoptimist auf Seiten von UNESCO und Vereinten Nationen versuche ich, beide Seiten zu sehen.

Welche positiven Möglichkeiten gehen im aktuellen Diskurs unter?

KI könnte nach einer Einschätzung der Investment-Bank Goldman Sachs in den kommenden Jahren 300-400 Millionen Jobs ersetzen. Wenn dem so sein wird, dann wird es eine regelrechte Revolution sein. Die gesamte Gesellschaft wird beginnen, anders zu funktionieren, wenn große Teile der Bürger:innen kein Einkommen durch Arbeit mehr haben. Wir müssen dann neue Wege finden, um die Profite, die durch die Maschinen erwirtschaftet werden, gerecht zu verteilen. Wenn wir KI zum Beispiel in Verbindung mit Blockchain richtig nutzen, um die sogenannte „Maschinensteuer“ einzuführen, von der Bill Gates bereits Anfang der 2000er Jahre sprach und die Südkorea vor einigen Jahren in Modellversuchen eingesetzt hat, könnten neue Gerechtigkeitsformen entstehen. Dann wird auch – umfassender – eine Welt möglich, in der eine riesige Menge an Daten dezentralisiert für uns arbeitet und wir dafür, dass wir Handys und Computer benutzen und also Daten generieren, Geld erhalten und ein bedingungsloses Grundeinkommen erwirtschaften. Riesige Fortschritte wird KI auch in der Medizin bringen. Um diese Möglichkeiten zu nutzen, müssen wir aber realistisch sein und die Tiefenambivalenz der Technologie anerkennen.

Es gibt heute eine Spaltung der Welt in Demokratien und Autokratien, und die Autokratien warten nur darauf, diese Technologien gegen die offene Gesellschaft einzusetzen.

Also sowohl das Positive als auch das Negative sehen?

Ja. In den letzten Jahren haben zum Beispiel UNESCO, die OECD, die Weltbank, das World Economic Forum und einzelne Regierungen große Programme gestartet, um KI für die Bewältigung der Klimakrise zu nutzen. KI – etwa in Form der „AI for the Planet“ Initiative oder der Global Partnership for Artificial Intelligence (GPAI), an der sich zwei Jahre nach Beginn bereits 28 Staaten und die EU beteiligen, soll beispielsweise eingesetzt werden, um auf globaler Ebene CO2-Emissionen zu reduzieren, Unternehmen effizienter zu besteuern und die Nachhaltigkeits-Bürokratie zu verschlanken. Wir sollten diese riesigen Chancen nutzen, um unser Leben zu verbessern, und uns zugleich gegen die Gefahren der KI rüsten. Es gibt heute eine Spaltung der Welt in Demokratien und Autokratien, und die Autokratien warten nur darauf, diese Technologien gegen die offene Gesellschaft einzusetzen. Hier sind Vernunft und Realismus wichtig, um auf vielen Gebieten neue Balancen herzustellen.

KI bleibt für viele immer noch ein sehr abstraktes Thema, das – wenn überhaupt – von ganz oben reguliert wird. Was können Bürger:innen tun, um sich für einen konstruktiveren Gebrauch von KI in Politik und Gesellschaft einzusetzen?

Die Bürger:innen müssen zunächst vor allem eines tun: sich informieren, sich ein Bild machen, was die KI heute schon kann und noch nicht kann, welche Optionen sich ergeben und welche sich nicht ergeben. Hier gibt es großen Aufholbedarf. Was die Leute wissen, bleibt inzwischen auch bei uns – in offenen Gesellschaften – immer weiter hinter dem zurück, was der aktuelle Stand der Technik ist. Diese Lücke, die sich in den letzten Jahren vergrößert hat, müssen wir dringend verkleinern, etwa durch Zukunftsbildung und technologische Erziehung in den Schulen. Da ist es notwendig, mehr Energie und auch Geld zu investieren, um auf der Höhe der Zeit zu bleiben. Der Ansatz der UNESCO-Zukunftsbildung, auf den wir uns am UNESCO-Lehrstuhl des Center for Advanced Studies der Eurac in Bozen spezialisieren, kann hier den Weg weisen und steht Südtirol zur Verfügung.

Dienste

  • News
  • Wetter
  • Verkehrsbericht

BARFUSS


Support BARFUSS!
Werde Unterstützer:in und fördere unabhängigen Journalismus:
https://www.barfuss.it/support

© 2023 SuTi GmbH
© 2023 SuTi GmbH . Rennstallweg 8 . 39012 Meran . MwSt: 02797340219
DatenschutzCookiesImpressum