Werde Unterstützer:in und fördere unabhängigen Journalismus
Während der zweiten Hälfte der Geschichtsstunde kam Francesca M. vom Badezimmer zurück in die Klasse und sah eine Gruppe von Mädchen tuscheln. „Hey, was ist los?“, fragte sie. Ihre Mitschülerinnen schauten sie erschrocken an, einige von ihnen mussten weinen. Sie berichteten von Bildern, die von den Jungen aus ihrer Schule in Chats herumgeschickt werden. Darauf zu sehen waren die Köpfe der Mädchen auf nackten, mit Künstlicher Intelligenz erstellten Frauenkörpern. Die 15-Jährige war eines dieser Mädchen.
Im Fall von Francesca M. recherchierte der amerikanische Podcast „The Daily“, mittlerweile gibt es aber auch Berichte aus Europa. In Spanien zum Beispiel wurde publik, dass eine Gruppe von Teenagern gefälschte Nacktfotos von ihren Mitschülerinnen erstellte und die Mädchen anschließend damit erpresste, diese zu veröffentlichen – wenn sie nicht zahlen würden. Die Mittel- und Oberschuljungen benutzen die Apps, um Fotos der bekleideten Mitschülerinnen innerhalb eines Klicks in realistisch aussehende Nacktbilder zu verwandeln. Die Anwendungen sind einfach zu bedienen, die Fotos schnell geladen und es bedarf keiner Fotobearbeitungs-Skills.
Darüber hinaus kann Künstliche Intelligenz ganze Frauen erschaffen. Diese lassen sich auf Instagram und Co. zum Teil nicht von echten Models und Influencerinnen unterscheiden. Was sind „Deepfakes“,wie genau zerstören sie Leben und wie können wir uns vor ihnen schützen?
Die jüngste Bedrohung
Der Physiker und Mathematiker Tim Berners-Lee gilt als der Gründer des World Wide Webs. Anlässlich seines 31. Jahrestageswarnte er in einem Blogbeitrag, dass Frauen und Mädchen bei all den Gefahren online einer wachsenden Krise entgegensehen. Nutzerinnen werden sexuell belästigt, bedroht und diskriminiert und das Internet zu einem zunehmend unsicheren Ort. Er beklagte: „Das Web funktioniert nicht für Frauen und Mädchen.“ Zudem wies er darauf hin, dass Künstliche Intelligenz und deren Algorithmus mehrheitlich von und für Männer konstruiert wurden. Fakt ist: Jede neue Technologie wird früher oder später auch für üble Dinge genutzt. Frauen und Mädchen werden immer öfter Opfer von sogenannten „Deepfakes“, oft mit existenzzerstörenden Folgen.
Bis zur Jahrtausendwende musste sich die Gesellschaft immer mehr dem technologischen Fortschritt anpassen. Vor allem in den letzten drei Jahrzehnten ging es rasant voran. Autorin Nina Schick warnt in ihrem Buch „Deepfakes: The Coming Infocalypse” vor einem Zeitalter, in dem wir jede Person alles tun und sagen lassen können. In einem Interview mit der Süddeutschen Zeitung sagte die KI-Expertin, sie würde ihrer Tochter nicht mehr erlauben, Bilder im Netz zu posten. Sie warnt vor Künstlicher Intelligenz als „jüngste Bedrohung in einem von Desinformation geprägten Informationssystems“ und verweist dabei auf sogenannte „Deepfakes“.
Der Begriff „Deepfake“ setzt sich aus den Wörtern Deep learning (zu deutsch: automatisiertes Lernen) und Fake (zu deutsch: Fälschung) zusammen und bezeichnet alle Arten von Medien, wie Videos, Audio oder Fotos, die mithilfe von Künstlicher Intelligenz erzeugt oder manipuliert werden. Vor allem Videofilme haben sich in den vergangenen Jahren als machtvolle Kommunikationsmedien etabliert. Bereits jetzt gibt es Berichte davon, wie die neuen Technologien genutzt werden, um in Wahlen einzugreifen und mit Lügen ganze Gesellschaften zu destabilisieren. So zeigte ein mit Künstlicher Intelligenz erstelltes Video aus Bangladesch eine Politikerin, die die eigene Partei aufforderte, „zum Thema Gaza zu schweigen“. In einem weiteren Video trug eine andere Politikerin einen Bikini. Beide Frauen gehören Oppositionsparteien an. Vermutlich wollte man die mehrheitlich muslimische Wählerschaft vor der Wahl beeinflussen.
Eine abgefuckte Dystopie
Deepfakes werden beeinflussen, wie wir unsere Umgebung wahrnehmen und wie wir Informationen aufnehmen werden, schreibt Schick. Und das in einer Welt, die zunehmend polarisiert. Es ist schwer, ihnen zu entkommen. Denn Menschen sind darauf ausgerichtet, dass sie audiovisuellen Medien blind vertrauen, wenn sie echt ausschauen. Dahinter steckt ein psychologisches Phänomen: Das Hirn ist viel schneller damit Bilder zu verarbeiten als Texte. Und: Je öfter wir etwas sehen, desto eher halten wir es für wahr. Vor den Gefahren dieser neuen Technologien warnte auch der Hollywoodregisseur Jordan Peele. Zusammen mit dem Onlinemedium „Buzzfeed“ erstellte er ein Video, welches ein Deepfake des US-amerikanischen Ex-Präsidenten Barack Obama zeigt. Dieser spricht in die Kamera und warnt: „Wir müssen künftig wachsamer sein und uns gut überlegen, welchen Inhalten im Internet wir noch trauen können. Es mag sich banal anhören, doch die Art und Weise, wie wir im Informationszeitalter agieren, wird letztlich darüber entscheiden, ob wir überleben oder in einer abgefuckten Dystopie enden“.
Die Geschichte der Deepfakes hat ihren Ursprung im Porno. Ein Internetnutzer namens „deepfakes“ veröffentlichte auf der Social Media Plattform Pornovideos von Hollywoodschauspielerinnen, wie durch einen Artikel von Vice aus dem Jahr 2017 bekannt wurde. Mit einer frei im Netz erhältlichen KI-Software erstellte er ein Inzestporno-Video von der „Wonder-Woman“-Darstellerin Gal Gadot. Aber auch andere bekannte Frauen wie Taylor Swift oder Scarlett Johansson wurden bereits zum Opfer dieser neuen Technologien. Sogar von Politikerinnen, wie Italiens Ministerpräsidenten Giorgia Meloni, gibt es bereits solche gefälschten Pornos. Laut Deeptrace, einer Internetsicherheits-Firma aus Amsterdam, sind etwa 96 % aller Deepfake-Videos pornografischen Inhalts. Die Videos lassen sich schnell erstellen sowie verbreiten und die Täter:innen sind oft schwer bis gar nicht zu finden. Und egal ob Promi oder Normalo: Jede:r kann zum Opfer werden. Es reicht, irgendwo und irgendwann auf Fotos abgebildet zu sein, auf die andere Zugang haben.
Frauen, die es gar nicht gibt
Auch ein gesamter neuer Geschäftszweig hat sich durch Künstliche Intelligenz und Deepfakes etabliert. So sind die neuen Technologien nicht nur in der Lage, bereits vorhandene Bilder und Videos zu manipulieren, sondern auch komplett neu zu erstellen. Erschreckend realistische Abbilder junger Frauen werden dann nicht nur in Pornografie, sondern auch auf Instagram verwendet, um mit ihnen Geld zu verdienen. Mittlerweile gibt es mit „Fanvue AI“ sogar ein eigenes „OnlyFans“ (Anm. d. Red.: Webdienst, auf dem gegen Bezahlung, Webinhalte wie Fotos und Videos angeboten werden, oft auch pornografischer Natur) für KI-generierte Charaktere. Die Deepfake-Frauen können dort nicht nur mit Texten in Chats antworten, sondern sogar Sprachnachrichten schicken.
Eines der bekanntesten mit Künstlicher Intelligenz erstellte Instagram-Models ist Emily Pellegrini. Stand Januar 2024 hatte sie 200.000 Follower:innen auf der Plattform sowie großen Erfolg auf OnlyFans. „You are so hot!“ und zahlreiche Flammenemojis finden sich in der Kommentarspalte unter den Bildern und Videos des Models. In ihren Videos bewegt sie sich lasziv vor der Kamera, in manchen ihrer Videos singt sie sogar. Auch deshalb war ein großer Teil der Follower:innen davon überzeugt, dass Pellegrini echt ist. Sogar ein deutscher Fußballer soll sie schon einmal angeschrieben und gefragt haben, warum sie mit diesem Aussehen noch keinen Freund habe. Die Geschäftsleute hinter dem KI-Model nutzten Studien, um herauszufinden, welcher Frauentyp den meisten heterosexuellen Männern am besten gefällt und orientierten sich danach. Derzeit wurde der Instagram-Account von Pellegrini pausiert.
„Erstellen sie atemberaubende Frauen_KI_Porträts“ oder „AI Girlfriend – Die 5 besten Apps für eine virtuelle Freundin“, „KI-Freundin kostenlos erstellen: So einfach geht’s“ – eine schnelle Google Suche zeigt die Menge an Anleitungen, mit deren Hilfe sich sogar eine Partnerin mit künstlicher Intelligenz erstellen lässt. Zudem gibt es Unternehmen, die sich auf den Verkauf von KI-Stimmen spezialisiert haben. ElevenLabs ist ein Tool, auf dem die eigene Stimme hochgeladen und synthetisiert werden kann.
Künstliche Intelligenz ist sexistisch
All diese Entwicklungen bergen Risiken für die Privatsphäre und Sicherheit junger Frauen, da die Technologie potenziell für Missbrauch, Revenge Porn (Anm. d. Red.: von Rache-Pornos spricht man dann, wenn jemand Bilder oder Videos einer meist unbekleideten Person, wie zum Beispiel Expartner:innen ohne Zustimmung veröffentlicht) und die Verbreitung unerwünschter Inhalte genutzt werden kann. Künstliche Intelligenz verstärkt auch Schönheitsideale und fördert eine Kultur der Objektivierung von Frauen und Mädchen. Es stellt sich die Frage, ob es ethisch vertretbar ist, mit Models wie Pellegrini Geld zu verdienen. Zudem sind Frauen bei der Entwicklung von Künstlicher Intelligenz immer noch unterrepräsentiert. Wenn Männer die Technologien entwickeln, dann können eventuelle Vorurteile in diesen widergespiegelt werden. Dass das kein leeres Bedrohungsszenario ist, zeigt das Beispiel des Online-Giganten Amazon. Dieser nutzte Künstliche Intelligenz in einem Bewerbungsverfahren – mit dem Ergebnis, dass Frauen öfter aussortiert wurden als Männer, da der Algorithmus letztere präferierte.
Meta, Mutterkonzern von Facebook, Instagram und Threads, führte vor Kurzem eine Kennzeichenpflicht für sämtliche KI-generierten Fotos ein. Zugleich will er Nutzer:innen bestrafen, die mit KI hergestellte Videos oder Audios uploaden, ohne diese zu kennzeichnen, wie das Technikmedium „TheVerge“ berichtete. Und dabei bleibt es nicht: Meta verwendet künftig die Bilder der Benutzer:innen, um ihre KI zu trainieren. Auch andere Unternehmen wie Adobe und Google stellen Systeme vor, die Informationen zur Herkunft von Bildern in deren Metadaten verankern.
Kursieren die Bilder bereits im Internet, bleibt es für Opfer aber nach wie vor schwierig, die Täter:innen zu finden und die Bilder zu löschen. Auch, weil es je nach Land andere Gesetze und Regelungen gibt. Und auch wenn Deepfakes mittlerweile kaum von echten Medieninhalten zu unterscheiden sind, gibt es dennoch Erkennungsmerkmale: zum Beispiel ein fehlendes Blinzeln oder unlogische Übergänge in Videos. Zudem gibt es Anwendungen wie das „DeepFake-o-meter“, um gefälschte Medieninhalte zu erkennen. Nicht nur die Deepfakes werden immer besser, sondern auch die Maßnahmen dagegen.
Auch Francesca M. wehrte sich gegen die von ihr erstellten und in Chats verbreiteten Deepfake-Nacktfotos. Sie und ihre Mitschülerinnen erstellten eine Snapchat-Gruppe. Darin diskutierten die Mädchen, wie sie am besten gegen die erstellten Nacktbilder vorgehen könnten und einigten sich darauf, die Schule zu informieren. Der Täter wurde für einen Tag suspendiert, ansonsten passierte nichts. Es wurde zu wenig unternommen, um die Mädchen zu schützen. Das sah auch Francescas Mutter so und schickte eine E-Mail an die lokale Nachrichtenseite: „Bin ich die Einzige, die denkt, dass die Schule zu wenig getan hat?“ Nachdem die Schlagzeile online ging, meldeten sich zahlreiche weitere Eltern, deren Töchter Opfer der Deepfake-Nudes wurden. Die Fälle gingen viral und führten sogar zu Gesetzesänderungen in mehreren US-Bundesstaaten.
Support BARFUSS!
Werde Unterstützer:in und fördere unabhängigen Journalismus:
https://www.barfuss.it/support