Neue Abgründe durch KI
„Zeig mir diese Frau nackt und steck‘ ihr eine Gurke vorne rein!“ Diese und andere Anweisungen geben Nutzer Grok, dem KI-Chatbot auf X von Elon Musk. Grok manipuliert Bilder realer Frauen täuschend echt.
Aktueller Auslöser für die massenhaften Bildgenerierungen ist die neue Bildbearbeitungsfunktion, die X Ende Dezember eingeführt hat. JedeR X-NutzerIn kann bei einem geposteten Bild auf die Option „Bild bearbeiten“ klicken und Grok konkrete Anweisungen geben. KI-Pornografie wird also nicht nur konsumiert, sondern aktiv mitgestaltet. Man könnte es zynischerweise „kreative Pornografie“ nennen.
Grok hat Werbung für pornografisierende KI gemacht, bei 600 Millionen Menschen
Aktuell regt sich internationale Gegenwehr, vor allem, weil mit Grok auch Nacktbilder von Kindern erstellt wurden. Musk hatte das zuvor bestritten: „Mir sind keine von Grok generierten Nacktbilder von Minderjährigen bekannt. Buchstäblich null“, schrieb er auf X. Die Beweislage war dann wohl zu erdrückend. Nun seien technische Maßnahmen ergriffen worden, um die Bearbeitung von Bildern realer Personen in freizügiger Kleidung zu verhindern, teilte das Unternehmen wenig später mit. Doch noch immer ist es teilweise möglich.
Mehrere Online-Petitionen wie „Take Action Against X“ oder „Protect Women and Children: Shut Down Grok's Image Tool“ auf change.org laufen gerade an. Indonesien und Malaysia hatten als einzige Staaten sofort reagiert und die Verwendung von Grok verboten. Indonesiens Digitalministerin Meutya Hafid begründete dies mit dem Schutz von Frauen, Kindern und der Öffentlichkeit vor Risiken im digitalen Raum, da solche Inhalte Menschenrechte und Würde verletzten.
Ob das Bild-Tool von Grok wirklich weitreichend von der Bildschirmfläche verschwindet, sei dahingestellt. Eines hat Musk mit seinem Chatbot bereits unwiderruflich geschafft: Er hat Werbung für pornografisierte KI gemacht, bei einem Publikum von 600 Millionen Menschen, die X weltweit jeden Monat nutzen.
Denn die Technologie wie bei Grok gibt es schon länger. Die App „Clothoff“ aus den USA ist eine der bekanntesten. Man lädt ein Ganzkörperfoto einer Person hoch und „Clothoff“ zieht sie, gemäß der Proportionen, aus. Und zwar so gut, dass diejenige selbst denkt, sie könne es tatsächlich sein. „Clothoff“ wurde in den letzten sechs Monaten etwa 27 Millionen Mal aufgerufen, laut Unternehmensangaben werden im Schnitt 200.000 Bilder pro Tag erstellt.
Über 60 Auszieh-Apps gibt es mittlerweile - oft auch kombiniert mit Spielen, in denen je nach Level ein Körperteil nach dem anderen entblößt werden kann. Auch Köpfe können, mithilfe von KI-Tools, in Videos einfach ausgetauscht werden. Nach der Werbung durch Grok dürften es noch mehr werden. Es braucht keine heimlichen Aufnahmen von Frauen mehr. Die Bilder können einfach und innerhalb von Sekunden erstellt werden. Noch dazu in hochauflösender Qualität. Und treffen kann es jede Frau, die ein Foto von sich ins Netz gestellt hat.
Von jedem Bild kann ein Screenshot gemacht werden. Jedes gepostete Bild kann mit KI verändert, sexualisiert werden und auf Porno-Seiten landen. Jüngst gab es auf der Secondhand-Plattform „Vinted“ einen Skandal. Frauen, die dort Kleidung verkauften und sich mit dieser Kleidung fotografierten, landeten enblößt auf Pornoseiten. Wer die Bilder dort hochgeladen hatte, konnte nicht ermittelt werden. Der Rat der Polizei an die betroffenen Frauen: Verschwinden Sie aus dem Internet!
Diverse KIs schaffen es auch, aus Bildern ganze Porno-Videos zu generieren. KI perfektioniert die Bildverarbeitung immerzu.
Mit ihr sind Sex- und Erniedrigungsfantasien keine Grenzen gesetzt. Diese Gewalt wird öffentlich produziert, geteilt, kommentiert, nahezu in spielerischer Normalität. Sie ist kein Nebeneffekt – sie hat System.
Die Polit-Philosophin Regula Stämpfli und die Literaturwissenschaftlerin Isabel Rohner analysieren in ihrem Podcast „Die Podcastin“ immer wieder, wie Daten von Frauen systematisch enteignet werden. Stämpfli argumentiert, dass KI-Modelle und Suchmaschinen auch mit Daten und Bildern aus der Pornoindustrie und von Pornowebseiten trainiert wurden. Dies führe dazu, dass KI-generierte Bilder von Frauen per se sexualisiert seien.
Diese misogyne technische Kodierung ist auch das zentrale Thema der Britin Laura Bates und ihrem neuen Buch „The new Age of Sexism“, das international als dringende Warnung vor der Verschmelzung von KI und Frauenhass gelobt wird. Laura Bates ist Journalistin und feministische Bestsellerautorin. 2012 gründete sie das „Everyday Sexism Project“, um Fälle von alltäglichem Sexismus sichtbar zu machen. „Die Menschen glauben, dass die KI-Technologie neutral ist. Aber das ist sie nicht. Sie ist patriarchal. Und natürlich schadet sie Frauen“, sagt sie.
Die Menschen glauben, eine KI ist neutral. Aber das stimmt nicht, sie ist patriarchal!
Laura Bates hat sich auch KI-Companions wie „Replika“ angeschaut, ein KI-Girlfriend, das eine Beziehung simuliert und unterwürfig alle Wünsche ihres „Creators“ erfüllt. Noch dazu war sie in Cyber-Bordellen unterwegs, in denen KI-gesteuerte Sexpuppen keinen Fetisch unbefriedigt lassen.
Bates Buch ist bei allen Abgründen, die sich da auftun, ein Weckruf, um gegen diese techgetriebene Misogynie anzugehen. Sie fordert harte Regulierung und einen Paradigmenwechsel: Weg von „Schütze dich selbst“ hin zu „Stoppt die Täter“. Dazu braucht es politisches und kollektives Handeln gegen die Machtkonzentration von wenigen reichen, weißen Männern, die Misogynie ins KI-Design einspeisen. Bates: „Wir Frauen müssen uns gegen diese neue Dimension des Sexismus mit aller Kraft wehren!“
Mehr zum Thema „KI und Porno“ in der nächsten EMMA, die am 24. Februar erscheint!
Buchtipp: Laura Bates „The new age of sexism” - how AI and emerging technologies are reinventing misogyny (Sourcebooks)

