in , , ,

Missbrauch von KI: Betroffene von Porno-Deepfakes sind oft machtlos

MDR-Doku Deepfake Pornos Opfer
Eine MDR-Doku zeigt, wie machtlos viele Opfer von Deepfake-Pornos sind. Foto: MDR Mitteldeutscher Rundfunk

So sehr die Entwicklungen im Bereich der Künstlichen Intelligenz (KI) aktuell gefeiert werden, so groß ist auch die Angst vor Missbrauch der Technologie. Vor allem im Bereich Pornografie sind die Gefahren groß, dass gefälschte Aufnahmen durchs Internet kursieren. Die ersten Fälle sind bereits bekannt, wie eine MDR-Doku jüngst aufgedeckt hat.

KI kann jedes Gesicht in Pornos einfügen

Künstliche Intelligenz erlaubt nicht nur das lebensnahe Chatten mit Computern, sondern auch die detailgetreue Erstellung von Bildmaterial. Damit haben es sogar künstlich erstellte Erotik-Models zur größeren Bekanntheit geschafft.

Doch neben den Bildern, die von Grund auf digital erstellt wurden, schaffen es zunehmend auch verfälschte Videos ins Netz. Dabei wird einfach das Gesicht einer Person in eine andere Umgebung eingefügt – beispielsweise in einen Pornoclip.

Anzeige

Diese Gefahr ist nicht abstrakt, sondern bereits Realität. Der MDR hat in seiner Reportagereihe „exactly“ Betroffene interviewt und gezeigt, wie machtlos Opfer dagegen sind.

KI-Pornos sind für Influencerinnen unvermeidbar

Die Erstellung solcher Deepfakes ist heutzutage mit wenigen Klicks in einer App erledigt und geschieht größtenteils ohne Einverständnis der Betroffenen. Die nötigen Bilder gibt es in den Sozialen Medien ohnehin zu genüge.

Influencerin Shurjoka wurde Opfer von KI-Deepfakes
Influencerin Shurjoka (Pia Scholz) wurde Opfer von KI-Deepfakes. Foto: MDR/Tobias Zuttmann

Besonders bei berühmten Influencerinnen häufen sich die Deepfakes. Streamerin Pia Scholz, im Netz bekannt als „Shurjoka“ erklärt, wie machtlos man ist: „Ich könnte einen Kartoffelsack tragen und Leute würden einfach mein Gesicht nehmen und auf eine nackte Frau packen und genauso weitermachen wie vorher.“

Deutschland ist auf Deepfakes nicht vorbereitet

Die Probleme der Betroffenen könnten nur ein Vorbote von dem sein, was noch kommt. Obwohl die Technologie für Deepfakes bereits länger auf dem Vormarsch ist, verschläft Deutschland es, das nötige Bewusstsein für die Gefahren zu entwickeln. Das meint auch Professor Alexander Godulla, der an der Universität Leipzig zu dem Thema forscht: „Die Gesellschaft ist in ihrer Breite nicht auf diese Technologie vorbereitet.“

Das Gesetz und vor allem die Strafverfolgung hinkt massiv hinterher. Spezifische Gesetze gegen Deepfake-Pornos gibt es nicht, die Taten fallen jedoch in der Regel unter Verletzung des Rechts am eigenen Bild. 

Nur sieht es hier mit der Verfolgung oft mau aus. „Man kann es anzeigen und irgendwie wird es im Gesetz auch abgebildet, aber es wird so gut wie nie verfolgt“, erklärt Anwältin Josephine Ballon, welche Betroffene von digitaler Gewalt berät. 

Influencerin Shurjoka hat sich dementsprechend mit den Fake-Pornos abgefunden: „Ich beschäftige mich damit einfach nicht mehr.“ Die ganze Doku über die Deepfake-Pornos ist aktuell in der MDR-Mediathek verfügbar.

Text: Nils

Frauen werden auf Onlyfans ausgebeutet

Ausbeutung auf OnlyFans: Frauen wurden zu Nackt-Content genötigt

Doku Porno als Hobby

Pornos als Hobby? Deshalb überschreiten Amateur-Darsteller immer wieder ihre Grenzen