Werbung
Die neue Doku «Another Body» zeigt, wie gefährlich Deepfake-Pornografie ist

Zeitgeist

Die neue Doku «Another Body» zeigt, wie gefährlich Deepfake-Pornografie ist

Für Deepfake-Pornografie werden mithilfe künstlicher Intelligenz Gesichter auf fremde Körper montiert. Der Dokumentarfilm «Another Body» beleuchtet das gefährliche Phänomen.

Die junge US-Studentin Taylor kriegt von einem Kollegen einen Link zugeschickt. «Ich glaube, du musst das sehen», schreibt er. Der Link führt zu einem Porno, in dem vermeintlich Taylor zu sehen ist – doch es handelt sich bei dem Clip um einen Deepfake. Taylors Gesicht wurde mit künstlicher Intelligenz und ohne ihre Einwilligung auf den Körper einer Pornodarstellerin montiert. Erschreckend: Dass es sich um eine bearbeitete Szene handelt, ist nicht klar erkennbar, das pornografische Material mit ihr täuschend echt – und die Deepfake-Pornos der Studentin werden unter ihrer Identität verbreitet.

Die britische Regisseurin und Produzentin Sophie Compton beleuchtet dieses Phänomen gemeinsam mit Regisseur Reuben Hamlyn im Dokumentarfilm «Another Body». Darin erzählen Compton und Hamlyn die Geschichte von Taylor und anderen betroffenen Frauen. Sie zeigen auf, wie perfid diese Art von sexualisierter Gewalt ist, wie solches Material überhaupt hergestellt wird und welche Gefahren diese Art der Technologie mit sich bringt. Verbreitet wird das Material etwa in Onlineforen wie 4chan. Besonders – aber eben nicht nur – Stars werden Opfer von AI-Pornos, zuletzt wurde etwa gefälschtes pornografisches Material von Taylor Swift in den Medien thematisiert.

Gemäss einer Untersuchung aus dem Jahr 2019 von Henry Ajder, Experte für Deepfakes und KI, der unter anderem die britische Regierung bei der Gesetzgebung beraten hat, ist der Grossteil der Deepfake-Inhalte im Netz – 96 Prozent von den gefundenen 14 000 Videos –  pornografisch. Die meisten zeigen Frauen.

In der Schweiz sind Deepfakes bisher nicht illegal. Allerdings verstösst man als Hersteller:in solcher Inhalte gegen das Recht am Bild, das Persönlichkeitsrecht oder das Urheberrecht der betroffenen Person. Vereinzelte US-Bundesstaaten haben Gesetze zum Verbot von Deepfake-Pornografie erlassen und in England wird die Verbreitung von gefälschten Porno-Inhalten unter Strafe gestellt.

Wir haben mit Sophie Compton über ihren Film «Another Body», über die Beweggründe für die Herstellung von AI-Pornos und die Macht, sich dagegen zu wehren, gesprochen.

annabelle: Warum haben Sie «Another Body» gemacht, was hat Sie am Thema fasziniert?
Sophie Compton: Wir fanden heraus, was in den Deepfake-Foren passiert und begriffen, dass es sich dabei um eine wichtige, neue Art von Angriffen auf Frauen und Mädchen handelt. Zu diesem Zeitpunkt haben die Medien das eigentliche Problem noch nicht vollumfänglich erfasst. Wir konnten einfach nicht glauben, dass so etwas zugelassen und legal ist.

Im Film beleuchten sie, wie schwierig es für Betroffene ist, sich rechtlich gegen die Personen zu wehren, die solche Deepfake-Pornos herstellen.
Ja, mein Verständnis von demokratischen Institutionen hat sich durch den Prozess sehr verändert. Das Internet ist zwar noch immer ein relativ neues Phänomen, aber immerhin schon seit rund zwanzig Jahren da. Mich fasziniert, dass Gesetzgeber:innen das Internet nicht wirklich in den Griff bekommen. Wir haben viel in Aufklärungsarbeit investiert und das hat mir klar gemacht, dass es neue technologische Probleme gibt, mit denen die Behörden sehr schlecht umgehen können. Sie sind darauf ausgelegt, auf eine bestimmte Weise und langsam zu handeln, während wir auf engagiertes und schnelles Handeln angewiesen sind. Gleichzeitig ist eine Bewegung entstanden, die sich gegen Deepfakes wehrt, und vor allem von Betroffenen vorangetrieben wird. Die Frauen, die ihre Erfahrungen geteilt haben, stehen dabei an vorderster Front. Ich habe gesehen, wie schwer es ist, Dinge zu ändern – aber eben auch, wie viel sich ändern kann. Vor allem, wenn Frauen ihre Stimme finden. Und wie kraftvoll dies sein kann.

Denken Sie dabei an eine konkrete Situation?
Ein Moment war etwa, als Gibi ihr Video bei Twitter teilte (die YouTuberin Gibi ASMR wurde Opfer von Deepfake-Pornos und erzählte öffentlich in einem Video von ihrer Erfahrung, Anm. d. Red.). Sie war sehr nervös, das Video zu posten und hatte Angst vor der Gegenreaktion. Und die gab es tatsächlich: Leute machten bei 4chan Threads über sie, wollten ihre Adresse herausfinden und ihr noch mehr Angst machen. Und doch war sie die erste Person, aus der ASMR-Community (ASMR steht für «Autonomous Sensory Meridian Response», im Netz gibt es dazu Millionen von Videos, Anm. d. Red.), die sich zu Deepfakes äusserte. Andere Frauen fingen ebenfalls an, ihre Geschichten öffentlich zu erzählen – so, dass dieses Thema des Deepfake-Missbrauchs nicht mehr diese stille, schamhafte Sache war, mit der jede alleine klarkommen musste. Es wurde zu einem öffentlichen Problem, das wir alle gemeinsam angehen müssen. Wenn wir Frauen uns dazu entschliessen, Scham zu überwinden, ist das wahnsinnig mächtig. Mein Verständnis davon, was es heisst, sich aktivistisch einzusetzen, hat sich stark verändert.

Wie?
Ich glaube zum Beispiel, dass Taylor nicht erkannte, dass sie sich mit dem Erzählen ihrer Geschichte aktiv einsetzte. Die Spannung im Raum ist spürbar, wenn jemand aus persönlicher Erfahrung spricht und alle zuhören – auch in hochrangigen Diskussionsrunden, wie wir sie etwa im Weissen Haus erlebten, wo Taylor über das Thema sprach. Wir waren erstaunt, wie sehr sich der öffentliche Diskurs aufgrund bestimmter Geschichten, die wir ans Licht gebracht haben, verändert hat. So etwas kann einen Dominoeffekt haben. Menschen können ihre Sichtweise einbringen und dadurch Teil einer öffentlichen Debatte werden. Es ist grossartig zu erkennen, dass man nicht tief im Sumpf der Gesetzgebung stecken muss, um Veränderungen zu bewirken – es kann auch mit neuen Ideen und Prinzipien gelingen.

Was wollten Sie über Deepfakes herausfinden und welche Fragen dazu bewegten Sie?
Es war uns sehr wichtig, die Realität einer Person zu verstehen, die das erlebt hat. Und zu verstehen, wie sich dies auf das Leben eines Menschen auswirkt. Wir wollten nicht nur die oberflächlicheren Auswirkungen wie beispielsweise die Sorge um die eigene Karriere aufzeigen, sondern in die Tiefe blicken. Taylor befand sich etwa in einem Spannungsfeld, das als Filmemacherin manchmal schmerzhaft mitzuerleben war: Sie plagten immer wieder Zweifel, während sie darüber nachdachte, ob sie über ihre Erfahrung sprechen und gegen die Ersteller ihrer Deepfakes vorgehen wollte – oder ob sie, was sehr verständlich gewesen wäre, nicht darüber sprechen und so tun will, als würde es sie nicht berühren. Ich respektiere Taylors Wunsch und den Wunsch jedes Opfers, einfach «normal» weiterzumachen. Ich möchte nicht, dass irgendjemand diese traumatische Erfahrung immer wieder durchleben muss. Gleichzeitig zielt dieser Missbrauch darauf ab, Leute zum Schweigen zu bringen und sie zu beschämen. Ich war auch sehr neugierig, warum Menschen überhaupt Deepfakes erstellen und was sie antreibt.

Was haben Sie herausgefunden?
Wir haben viel dabei gelernt, indem wir uns diese Foren genau anschauten. Etwa, dass es nicht immer nur darum geht, Frauen zu demütigen – obwohl das auf einer unbewussten Ebene immer der Fall ist –, sondern, dass dahinter auch eine Besessenheit mit Prominenten oder YouTuber:innen stecken kann. Es kann eine parasoziale Beziehung entstehen, in der Menschen glauben, dass sie diese Person besitzen. Welche Rolle spielen Orte wie diese Foren in Bezug auf Radikalisierung und die Art, wie damit Frauenfeindlichkeit normalisiert wird? Was bedeutet das für die Dynamik von solchen Personen mit den Frauen in ihrem Alltag? Es gibt vieles, was wir durch diese Arbeit entdeckt haben, was sehr deprimierend war. Und ernüchternd. Wir müssen die zugrunde liegenden Probleme verstehen, wenn wir sie lösen wollen. Diese Foren dienen als Räume für Männer, um sich miteinander zu verbinden und vernetzen. Wir müssen uns fragen, was ihnen sonst im Leben fehlt, wenn sie sich dort gesehen und unterstützt fühlen und eine Art Gefühl der Brüderlichkeit verspüren.

Sie sagen, dass der Impuls solcher Männer ist, Frauen zu beschämen und zum Schweigen zu bringen.
Schaut man sich an, wer ins Visier genommen wird, sind es oft Frauen, die ihre Stimme nutzen: Beispielsweise Aktivistinnen oder Politikerinnen wie Alexandria Ocasio-Cortez, Kamala Harris oder Greta Thunberg. Es sind Frauen, die berühmte Feministinnen sind, wie Billie Eilish oder Emma Watson. Es gibt bei diesem Vorgehen den Impuls, Frauen, die ermächtigt, laut und stark auftreten, mundtot machen zu wollen. Oft ist die Sprache in solchen Foren in einen sardonischen Humor gehüllt, in ein Gefühl, das man nichts ernst nimmt. Es herrscht ausserdem das Narrativ, dass es ja nicht die echten Körper der betroffenen Frauen sind und es deshalb nicht schlimm sei. Die Gründe können sehr offensichtlich sein, etwa wenn eine Frau einen Mann betrogen hat und er sie fertig machen will. Oder aber es gibt die Haltung, es bestehe ein Anspruch – sie glauben, sie haben das Recht, mit diesem Körper zu tun, was sie wollen.

Werbung

Einige der betroffenen Frauen, die in «Another Body» von ihren Erfahrungen erzählen, zeigen nicht ihre echten Gesichter. Stattdessen haben Sie mit AI das Gesicht einer Schauspielerin auf sie montiert. Warum haben Sie sich dazu entschieden, nicht die echten Gesichter zu zeigen?
Wir wussten immer, dass wir die Identität der Frauen schützen wollten, da sie durch das Mitwirken im Film zur Zielscheibe werden würden. Taylor oder Julia (eine weitere Protagonistin im Film, Anm. d. Red.) hätten sich auch nicht auf das Projekt eingelassen, wenn wir sie nicht auf diese Weise geschützt hätten. Julia hat ihren Eltern immer noch nichts davon erzählt. Sie hält es extrem geheim, weil sie Angst vor Belästigung hat. Wir wollten damit auch zeigen, wie gut die Technologie ist – man stellt dadurch seine eigene Fehlbarkeit in Frage. Ich glaube, zu Beginn des Films denken sich die Zuschauer:innen noch, dass sie den Unterschied zwischen Deepfake und nicht manipulierten Aufnahmen erkennen könnten.

Was war die grösste Herausforderung beim Dreh des Films?
Es gab technische Herausforderungen, da der Postproduktionsprozess komplex war. Für mich war der schwierigste Teil, dass ich manchmal das Gefühl hatte, Taylor würde aufgeben und ihren Fall nicht mehr rechtlich verfolgen wollen. Am Ende ging sie zum Weissen Haus und konnte ihre traumatische Erfahrung in diese wunderschöne Möglichkeit verwandeln, als Mensch zu wachsen. Als Storyteller verstrickt man sich sehr in die Geschichte, die man erzählt, und es liegt einem sehr viel daran. Das fühlt sich wie eine Ehre an, aber auch wie eine Verantwortung.

War es schwierig, Betroffene zu finden, die in Ihrem Film über ihre Erfahrung sprechen wollten?
Taylor haben wir bei 4chan gefunden. Es war ein Glücksfall – mit ihrer Geschichte konnten wir einer investigativen Reise folgen. Sie ist eine fesselnde Protagonistin und man kann ihr gut nachempfinden, sie ist mutig und ehrlich, wenn es um ihre Probleme geht. Obwohl sie unter Zwangsstörungen und Angstzuständen leidet, die sie stark beeinträchtigen, strebt sie trotzdem nach Gerechtigkeit. Ich finde es toll, dass sie begeistert von Technik ist. Das hat mein Verständnis davon, wem so etwas passieren kann, massgeblich verändert.

Es ist interessant, man hat eine gewisse, oft sehr falsche Vorstellung davon, wem so etwas passieren kann und wem eher nicht. Dabei kann solche Gewalt wie pornografische Deepfakes jeder Frau angetan werden – ganz unabhängig davon, wie man sich im Internet präsentiert.
Absolut. Es kann alle treffen. Wir sind stolz darauf, dass Taylor als Protagonistin eine Betroffene ist, die man so nicht erwarten würde. Es gab eine einzige Kritik am Film, die mich aufwühlte: Die Person warf uns vor, dass Taylor ziemlich prüde sei und es gar nicht möglich sein könne, dass sie nie Pornos schaue. Der Film sei sehr sexnegativ. Das hat mich geärgert, weil ich als Feministin unglaublich sexpositiv bin – und es im Film konkret um die Verletzung von Konsens geht. Taylor war tatsächlich verstört von diesen Foren und fühlt sich sehr unwohl in dieser Welt. Victim Blaming kann auch bedeuten, das Verhalten des Opfers zu beurteilen. Wir können es nicht richtig machen: Sind wir sexuell zu explizit, werden wir dafür kritisiert. Sind wir sexuell zu konservativ, werden wir dafür verurteilt.

Was hat sie am Thema am meisten überrascht?
Es war echt schockierend, als ich mir zum ersten Mal diese Foren und die schrecklichen Inhalte ansah. Ich habe den Hass auf weibliche Körper gespürt und ich glaube, daran werde ich mich immer erinnern. Es war erschütternd, die Dinge zu hören, von denen man immer nur ahnt, dass die Leute sie denken würden. Diese Aussagen so explizit für alle sichtbar aufgeschrieben zu sehen, war schlimm.

Welche Kommentare meinen Sie?
Es gab bei 4chan unter anderem einen Thread zum Film und uns, einige der Kommentare lauteten zum Beispiel: «Guten Morgen Sirs, ich hasse Frauen.» Oder «Guten Morgen Sirs, ich vergewaltige Frauen.» Der Ton war scherzhaft, im Sinne von: Sei nicht prüde, ist doch nur ein Witz. Diese Personen führen solche Aussagen vielleicht nicht wirklich aus, aber es ist eine Glorifizierung – und eine Waffe, um zu schockieren.

Was haben Sie durch «Another Body» gelernt?
Der beste Weg, diese Leute nicht gewinnen zu lassen, ist, authentisch sich selbst zu sein. Und das schliesst ein, dass man sexuell völlig konservativ ist, wenn man das will – oder eben extrem offen, laut und freizügig. Ich spüre und sehe die Macht, die jede dieser Entscheidungen, authentisch sich selbst zu sein, in der Welt auslöst. Ich habe die wahre Kraft von Menschen, die ihre Geschichte erzählen, verstanden. Das ist meine grösste Lektion.

«Another Body» ist am 9. März und 14. März am International Film Festival and Forum on Human Rights in Genf zu sehen. Weitere Infos zum Film gibts hier.

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments