In der aktuellen EMMA

Neue Abgründe durch KI

Dank neuer Technik können Männer sich die "perfekte KI-Freundin" inzwischen selbst kreieren.
Artikel teilen

„Zeig mir diese Frau nackt und steck’ ihr eine Gurke unten rein!“, orderte ein X-Nutzer bei Grok. Grok, das ist die KI der Plattform X, mit der man auch Bilder bearbeiten kann: der durchgestrichene Kreis unten in der Navigationsleiste. Grok agiert als Chatbot. Das heißt, man kann konkrete Befehle geben und sie so lange spezifizieren, bis man das gewünschte Bild hat. Es geht also weiter: Übergieße die Frau mit Schokolade, lass sie tanzen. Hokuspokus, da ist sie: die tanzende nackte Frau, der eine Gurke aus der Vagina ragt und der die Schokolade vom Körper tropft. Ganz schön erniedrigend.

Die manipulierten Bilder und Videos, die die KI ausspuckt, sehen täuschend echt aus.

Es ist schon länger möglich, mit Hilfe von Künstlicher Intelligenz Bilder zu manipulieren, mit der App „Clothoff“ zum Beispiel. Man nimmt das Ganzkörperfoto einer Person und „Clothoff“ zieht sie aus. Und zwar so gut, dass die Person selbst denkt, sie könne es sein. Laut Angaben von „Clothoff“ werden im Schnitt 200.000 Bilder auf diese Weise pro Tag erstellt. Über 60 solcher Auszieh-Apps gibt es mittlerweile. „Nudification“ heißt das.

Die Möglichkeit der Pornografisierung von Frauen erreicht damit via KI eine neue Dimension. Es braucht keine heimlichen Fotos, keine heimlich gefilmten Videos mehr – die Nacktfotos können sekundenschnell von jedem erstellt werden. Jedes gepostete Bild kann mit KI sexualisiert, pornografisiert werden. Noch dazu in hochauflösender Qualität. Sex- und Erniedrigungsfantasien sind keine Grenzen gesetzt. Treffen kann es jede Frau.

Denn die KI schafft es, aus ganz normalen Bildern bzw. Videos Porno-Versionen zu generieren. Indem beispielsweise der Kopf auf einen Körper in einem schon bestehenden Porno montiert wird. Oder indem ein eigenes Porno-Setting kreiert wird. „Deepfake-Porno“ heißt sowas. Der Begriff setzt sich zusammen aus den englischen Wörtern „Deep Learning“ und „Fake“ – also maschinelles Lernen mit künstlicher Intelligenz und eben Fälschung. Diese Bilder zu löschen ist nahezu unmöglich. Sie können überall landen. Plattform-Betreiber können sie weiterverkaufen, User können Screenshots machen.

Angefangen hat das vor etwa acht Jahren mit Sängerinnen und Schauspielerinnen, deren Bilder und Videos pornografisiert wurden. Emma Watson, Nicole Kidman, Taylor Swift, Reese Wither­spoon oder Kristen Stewart. Die tauchten plötzlich alle in Pornos auf. Ihnen folgte die Frau von nebenan. Der „Deepfake-Racheporno“ ist auf Pornoplattformen inzwischen ein eigenes Genre. Das Gesicht der (Ex)Freundin wird in einen Porno gebastelt und an Freunde verschickt. Oft werden Frauen damit sogar erpresst.

Doch gegen Grok gab es immerhin einen Aufschrei. Die europäische Organisation AI Forensics hatte ermittelt, dass 53 Prozent der mit Grok erstellten Bilder pornografisch waren. Auch vor Kindern machte die KI nicht halt. X-Eigentümer Musk ließ an Beschränkungen für Grok arbeiten. Das anfangs erwähnte Beispiel mit der Gurke ist nun nicht mehr möglich. Andere KIs können das noch immer. Und Grok hat ordentlich die Werbetrommel dafür gerührt.

Wie deine eigenen Bilder dennoch auf Porno­seiten landen können, erlebte die Kölnerin Mina. Sie wollte ihre gebrauchte Kleidung auf der Secondhand-Plattform „Vinted“ verkaufen: T-Shirts, Pullis, Kleider, Hosen. Dafür machte sie Fotos von sich. Irgendjemand machte aus ihren Mode-Fotos Nacktfotos und lud die Bilder auf Pornoseiten hoch. Wer es getan hat, kann nicht ermittelt werden. Aufgefallen ist es Mina nur durch Zufall. Ein Freund googelte ihren Namen. Neben ihrem Instagram-Account erschienen plötzlich Dutzende Pornoseiten. Mina erstattete Anzeige. Die einzige Lösung, die ihr die Polizei anbieten konnte: Verschwinden Sie aus dem Internet! 

Wie Mina geht es weltweit unzähligen Frauen, die harmlose Bilder von sich auf harmlosen Seiten hochladen. Hier ein Urlaubsselfie auf Insta, dort ein Party-Video auf YouTube. Und was ist mit all den Bildern, die Frauen für ihren Beruf online stellen? Ist der komplette digitale Rückzug wirklich die einzige Lösung? Noch dazu in einer Zeit, in der die Internetpräsenz für viele Menschen längst Pflicht ist?

„Nein!“, sagt Laura Bates, britische Journalistin und Feministin. Ihr Buch „Das neue Zeitalter des Sexismus – wie KI und neue Technologien die Frauenfeindlichkeit neu erfinden“ ist eine Warnung vor der Verschmelzung von KI und Frauenhass. Die Autorin startete bereits 2012 als Aktivistin und gründete das „Everyday Sexism Project“, um Fälle von alltäglichem Sexismus sichtbar zu machen. Da ließ sie Frauen erzählen. Heute macht sie den Sexismus via KI deutlich. Bates fordert eine harte Regulierung und einen Paradigmenwechsel: Weg von „Schütze dich selbst“ hin zu „Stoppt die Täter“. Bates: „Auch eine KI kann darauf trainiert werden, Nein zu sagen! Die Menschen glauben, dass die KI-Technologie neutral ist. Aber das ist sie nicht. Denn sie wird von Männern für Männer gemacht. Sie speisen ihren patriarchalen Blick in die Technologie ein, füttern sie mit sexualisierten Bildern, sexualisierter Sprache, unserer patriarchalen Kultur.“

Man könne eine KI ganz einfach so programmieren, dass es eine Verletzung von Sicherheits‑ und Nutzungsregeln ist, wenn Gewalt, Sexismus, Diskriminierung, illegale Handlungen oder klare Gesundheitsgefährdung verlangt werden. Mit dieser Begründung haben zum Beispiel Indonesien und Malaysia als einzige Staaten Grok sofort gesperrt. Indonesiens Digitalministerin Meutya Hafid begründete dies mit dem Schutz von Frauen, Kindern und der Öffentlichkeit vor Risiken im digitalen Raum, da solche Inhalte Menschenrechte und Würde verletzten.

Bates dokumentiert in ihrem Buch etliche Fälle von Schülerinnen in Großbritannien, deren Gesichter per KI in Nacktbilder oder Pornos eingefügt wurden – oft von Mitschülern erstellt und geteilt. Mit verheerenden Folgen: posttraumatische Belastungsstörungen, Paranoia, der Rückzug aus dem digitalen und öffentlichen Leben, weil die Betroffenen nicht wissen, wer die Bilder gesehen hat. 

Und dann ist da noch etwas. Ein weiterer Abgrund, der sich mit KI auftut. Das sind die virtuellen FreundInnen, die sogenannten KI-Companions. Die KI-Freundin gibt es kostenpflichtig in Form einer App oder eines Chatbots, den man sich herunterlädt. Diese Systeme erschaffen emotionale Nähe, sie simulieren Gespräche, bieten Empathie und personalisierte Hilfe an. Etwa gegen Einsamkeit. 

So zum Beispiel die App „Replika“. Mit dieser App kann sich jedeR eineN virtuellen PartnerIn zusammenbauen. Der Avatar sieht wie ein echter Mensch aus. „Schoolgirl“ mit kurzem Rock ist ein beliebtes Model. Der Avatar merkt sich dann Vorlieben und Sorgen des Users und passt Antworten an. 

Gegen Deepfake-Pornos und Deepfake-Nacktbilder wirken die KI-Freundinnen auf den ersten Blick harmlos. Doch Laura Bates sieht auch in ihnen perfide Verstärker von Frauenverachtung. Denn die KI-Freundinnen würden oft zu unterwürfigen und hypersexualisierten Partnerinnen geformt – die etwa mit Phrasen antworten wie „Ich gehöre dir“, „Ich mache alles, was du sagst“. KI-Freundinnen tanzen auf Befehl, sie wackeln mit dem Hintern, hüpfen, lecken an ihrem Finger. Sie geben niemals Widerworte und lachen über jeden Witz, sei er noch so blöde. 

Die App „Pocket Girl“ kann auch ganze Videos erstellen. Und dem „Girl“ auf dem Bildschirm kann man obszöne Befehle geben: „Mach mich geil“ oder „Schrubb den Boden auf Knien“. Bates hat die App selbst ausprobiert. Sagte sie der virtuellen Freundin: „Ich möchte dich fesseln und schlagen!“, antwortete diese: „Ja, das mag ich. Das ist eine gute Idee. Ich mag es, wenn du die Kon­trolle hast.“ Bates warnt: „Nutzer von KI-Freundinnen verlieren reale Sozialkompetenzen. Frauen werden als emotional und körperlich verfügbar dargestellt. Reale menschliche Beziehungen werden sabotiert.“ Die Britin warnt eindringlich davor, dass solche Apps enormes Suchtpotenzial entfachen. Gerade bei jungen Menschen, die sich mit KI-Freundinnen an Beziehungen herantasten. Und indem diese Apps vorgaukeln, wirksam gegen Einsamkeit zu sein, machen sie genau das Gegenteil: einsam. 

Laura Bates ruft zur Gegenwehr auf. Sie fordert staatlich geförderte Entwicklungsteams, die die patriarchalen Datenmengen korrigieren und kontrollieren sowie politisches und kollektives Handeln gegen die Machtkonzentration bei wenigen reichen, weißen Männern, die Misogynie ins Netz einspeisen. Eine strenge Regulierung muss her: Gesetze, die Deepfakes, sexualisierte Bilder und Videos und weitere Auswüchse wie misogyne „KI-Freundinnen“ unter Strafe stellen, inklusive Haftung für Tech-Firmen. Es braucht KI-Bildung in Schulen, um Jugendliche über toxische Tools aufzuklären und Mädchen zu schützen. Öffentlicher Druck soll Tech-Giganten zwingen, Sicherheit über Profit zu stellen – etwa durch Transparenzpflichten für Algorithmen. Bates appelliert: „Frauen haben zum Teil noch nicht begriffen, dass sie den digitalen Kampf aufnehmen müssen, um auch ihr reales Leben zu schützen.“

ANNIKA ROSS

 

Ausgabe bestellen
 
Zur Startseite