AI porn: Około 520 000 000 wyników (0,23 s)
Deepfake porn: Około 92 800 000 wyników (0,23 s)
To wyniki wyszukiwania w Google: miliony wyników w zasięgu ręki każdego użytkownika Internetu. Wśród najwyżej pozycjonowanych wyników znajdują się liczne strony oferujące odpłatne lub bezpłatne tworzenie deepfake’ów — lepszej lub gorszej jakości filmów i obrazów tworzonych oraz modyfikowanych za pomocą sztucznej inteligencji. Temat technologii deepfake na afisze największych gazet wypłynął dopiero w ostatnich miesiącach, po tym, kiedy w środowisku streamerek doszło do naruszenia ich granic poprzez wyciek stworzonych za pomocą wspomnianej technologii treści pornograficznych, których żadna z tych kobiet nie tworzyła, ani nawet nie wyraziła zgody na ich tworzenie [1].
Temat deepfake’ów pojawił się w przestrzeni publicznej już kilka lat temu. Sam termin „deepfake” pochodzi od nazwy użytkownika witryny, który w 2017 roku zaczął umieszczać w sieci treści pornograficzne zmanipulowane w taki sposób, aby znalazły się tam wizerunki znanych z show-biznesu kobiet.
„Od samego początku osoba, która stworzyła deepfake’i, używała tej technologii do tworzenia pornografii bez zgody kobiet, [których wizerunek został użyty — przyp. tłum.]”
— powiedziała CNN Samantha Cole, reporterka Vice’s Motherboard, która śledzi problem deepfake’ów od momentu ich powstania [2].
Technologia open source (pol. otwarte oprogramowanie) udostępniona przez Stability AI tworzy obrazy na podstawie danych tekstowych. Nie trzeba było długo czekać, aby została wykorzystana do celów pornograficznych. Społeczności z serwisów Reddit i 4chan wykorzystały system generowania zarówno realistycznych, jak i stylizowanych na anime obrazów nagich postaci, głównie kobiet, a także sztucznie generowanych zdjęć celebrytek [3].
TechCrunch podaje, że pomimo działań adminów banujących pornograficzne treści na poszczególnych forach na podstawie przepisów dotyczących nadużyć w ich regulaminach, zaczęły powstawać nowe, niezależne fora publikujące pornografię deepfake. Niektóre z nich, jak pewien serwer na platformie Discord, budują całe swoje modele biznesowe wokół systemów AI dostosowanych do generowania porno. Patreon [amerykańska platforma finansowania społeczniościowego — przyp. red.] gromadzi obecnie ponad 2 500 dolarów miesięcznie od kilkuset darczyńców na rzecz rozwoju tego serwera, który do tej pory wygenerował ponad 4 375 000 zdjęć pornograficznych, wykorzystując technologię deepfake [ibid.].
Ravit Dotan, wiceprezeska zarządzająca programem Responsible AI [pol. społecznie odpowiedzialnej sztucznej inteligencji] w firmie programistycznej Mission Control w rozmowie z TechCrunch mówi o niebezpieczeństwach związanych z pornografią deepfake:
„Ryzyko obejmuje nałożenie jeszcze bardziej nieuzasadnionych, rygorystycznych oczekiwań dotyczących ciał i zachowań seksualnych kobiet, [a także] naruszanie ich prywatności (…). Jednym z aspektów, który szczególnie mnie martwi, jest utrwalający nierówności płciowe wpływ porno generowanego przez AI. Dla przykładu poprzednia aplikacja oparta na AI, która może »rozbierać« ludzi, działa tylko na kobiety” [3].
Deepfake: nowe revenge porn
Źródło: Zrzut ekranu z forum na portalu Wykop.pl, gdzie mężczyźni wykorzystują sztuczną inteligencję do tworzenia materiałów pornograficznych m.in. z ich koleżankami.
Deepfake’i od dawna są wykorzystywane do umieszczania twarzy kobiet bez ich zgody w filmach pornograficznych. To szczególnie obrzydliwa i ciemna strona tego, jak obecnie wykorzystuje się sztuczną inteligencję. Technologia deepfake pozwala także na rozwój innych przemocowych praktyk takich jak m.in. revenge porn [publiczne udostępnianie intymnych zdjęć swojego byłego partnera lub partnerki w celu zemsty — przyp. red.]. Obecnie rzekomy „wyciek” prywatnych zdjęć nie musi pochodzić od dawniej zaufanej osoby, która przekroczyła nasze granice i opublikowała prywatne materiały w celu upokorzenia. Nagie zdjęcia i nagrania w upokarzających pozach i sytuacjach, treści pornograficzne i inne są teraz w zasięgu ręki każdego, kto ma dostęp do naszego wizerunku – chociażby na portalach takich jak LinkedIn czy Facebook.
„Patrzenie jak robisz coś, czego nigdy nie robiłaś, jest bardzo, bardzo surrealistyczne. To trochę tak, jakbyś oglądała coś szokującego ze swoim udziałem. To tak, jakbyś na przykład oglądała film, w którym jesteś zamordowana lub taki, w którym skaczesz z klifu”
— powiedziała w rozmowie dla CNN Sweet Anita, streamerka z Twitcha, po tym, jak dowiedziała się, że jej twarz została wstawiona do filmów pornograficznych bez jej zgody [1].
Pornografia deepfake jest ostatecznym i namacalnym dowodem na to, że zgoda kobiety na czynności seksualne nie jest społecznie postrzegana jako konieczna do tego, aby poddać ją takim czynnościom. Jak podaje Glamour, autor jednego z postów na deepfake’owych forach domagał się nagrania „wyruchanej na plecach”, dodając do posta zdjęcie w pełni ubranej kobiety trzymającej małe dziecko [4]. Inne tego typu posty to: „Czy ktoś mógłby »nudeshopować« [od Photoshop, aplikacji do edycji zdjęć i nude, pol. nagość — przyp. tłum.] tę dziewczynę z mojego miasta?”, „Czy ktoś może dodać sztuczną spermę albo podmienić moją matkę?” i „Czy możesz spróbować [zrobić deepfake — przyp. tłum.] z tą 41-letnią MILF [ang. mom I’d like to fuck, pol. mamuśka, którą chciałbym przelecieć — przyp. tłum.] i jej 18-letnią córką, proszę?” [4].
Jess Davies w artykule dla brytyjskiego Glamour zwraca uwagę na to, że każda kobieta i dziewczyna mogą być potencjalnym celem manipulacji związanych z technologią deepfake:
„Większość stron i forów z treściami deepfake tłumaczy, że gromadzą tylko filmy i zdjęcia celebrytów lub osób publicznych, ponieważ są oni »inni niż zwykli obywatele«. Informacja umieszczona na najbardziej popularnej stronie z deepfake porn mówi, że każda modelka poddawana działaniu aplikacji z technologią deepfake musi mieć minimum 100 tys. obserwujących na YouTube, Twitterze, Twitchu lub Instagramie. A jednak znalazłam zatwierdzone płatne żądanie dla polityczki z zaledwie 30 tys. obserwujących na Twitterze i mniej niż 500 obserwujących na Instagramie” [4].
Już w 2021 roku dział badań Parlamentu Europejskiego zajmował się tematem deepfake’ów i ich wpływu na społeczeństwo [5]. Rathenau Instituut przygotował też infografikę pokazującą długofalowe skutki nadużywania tej technologii. I choć raport przygotowany dla Parlamentu skupiał się przede wszystkim na aspektach dezinformacji i politycznie motywowanej manipulacji, nie jest to najpopularniejszy (ani nawet popularny) sposób użytkowania tej technologii. Jak podaje Deeptrace Labs, spółka zajmująca się tworzeniem narzędzi do zbiorczego badania mediów, 96% stworzonych deepfake’ów to pornografia, która umacnia i tak silną już kulturę gwałtu [6].
Źródło: Rathenau Instituut
Jess Davies podsumowuje tę kwestię następująco:
„(…) To tylko kolejny sposób, w jaki mężczyźni zaznaczają swoją władzę nad kobietami i przejmują kontrolę nad naszą seksualnością. Nie ma osoby, która w mniejszym lub większym stopniu zasługiwałaby na to, aby umieścić ją w filmie porno lub rozebrać do naga w sieci bez jej zgody. Kiedy zaczynamy obwiniać kobiety za wyzyskujące działania ich oprawców, zaczynamy podążać aż za dobrze znaną nam ścieżką obwiniania ofiar, której niestety wszystkie już doświadczyłyśmy. »Ile wypiłaś?«, »Którędy szłaś do domu?«, »W co byłaś ubrana?«, »Śmiałaś się przecież z jego żartów…«” [4].
Wraz z niekontrolowanym dostępem do technologii, którą wykorzystują mężczyźni chcący upokorzyć kobiety, otwierają się kolejne wrota cyberprzemocy: nie tylko wobec dorosłych, ale również nastolatek oraz dzieci.
Deepfake to raj dla pedofili
Pedofile wykorzystują technologię deepfake do tworzenia zdjęć dzieci w pornograficznym kontekście. National Crime Agency (NCA) ostrzega, że sztuczna inteligencja jest zaprzęgnięta do tworzenia zdjęć i filmów z prawdziwymi ofiarami [7].
W grudniu 2022 roku został również aresztowany programista komputerowy, który używał sztucznej inteligencji do tworzenia „prawdziwie szokujących” obrazów pornografii dziecięcej. Mężczyzna został namierzony przez policję w Hiszpanii. Jak podaje Policia Nacional [pol. Policja Państwowa], pobierał on Internetu prawdziwe zdjęcia dzieci, wpisując je następnie w pornograficzne scenariusze, które miał stworzyć generator obrazów AI. Dowody znalezione na jego komputerze to m.in. materiały, które zawierały gwałcone niemowlęta [ibid.].
Podobnie jak w przypadku innych grup przestępczych, twórcy pornografii deepfake używają komunikatorów internetowych, aby „handlować” zdjęciami, natomiast przestępcy seksualni często korzystają z TikToka, aby uzyskać „materiał” do realizacji swoich obrzydliwych fantazji.
W Nowym Jorku pewien mężczyzna używał deepfake’ów do tworzenia pornografii z wizerunkami koleżanek z klasy — wykorzystywał zdjęcia z ich mediów społecznościowych z czasów, gdy chodziły do szkoły średniej, a nawet z czasów, kiedy miały 14 lat [4].
Czy jako społeczeństwo jesteśmy w stanie zapanować nad tsunami mizoginii, z którą spotykają się coraz młodsze kobiety? Czy nieliczne korzyści ze sztucznej inteligencji warte są ryzykowania życia, zdrowia i bezpieczeństwa kobiet napastowanych przez nienawistnych mężczyzn, którzy wykorzystują technologię do tworzenia poniżającej je pornografii?
„Ludzie, którzy rozwijają tę technologię — naukowcy, osoby pracujące w laboratoriach badawczych w Google i Facebooku — musicie zacząć zadawać sobie pytanie: dlaczego ją rozwijacie? Jeśli szkody przeważają nad korzyściami, to czy faktycznie powinieneś zbombardować Internet swoją technologią i wypuścić ją na zewnątrz, a następnie usiąść i powiedzieć: »cóż, zobaczymy, co stanie się dalej?«”
— mówi Hany Farid, profesor Uniwersytetu Kalifornijskiego Berkeley, ekspert w dziedzinie cyfrowej kryminalistyki, w rozmowie dla CNN [2].
Jaką walkę możemy podjąć przeciwko nadużyciom deepfake?
Chociaż Parlament Europejski już w 2021 roku rozpoznawał potrzebę stworzenia odpowiedniej legislatury dotyczącej sztucznej inteligencji, w szczególności technologii deepfake, nadal nie istnieje ogólnoeuropejski akt prawny, który zapobiegałby tworzeniu i rozpowszechnianiu takich materiałów czy też karałby za te czynności. Podobna sytuacja ma miejsce w Stanach Zjednoczonych: nie istnieje obecnie żaden federalny akt prawny, który chroniłby kobiety przed technologią deepfake użytą bez ich zgody. Jednakowoż pornografia utworzona za pomocą tej technologii i bez zgody osób, których wizerunek został użyty, jest nielegalna w stanach Wirginia i Kalifornia. W Kalifornii obowiązują aż dwa akty prawne dotyczące deepfake’ów. Jak podaje portal Cnet:
„Pierwszy z nich daje Kalifornijkom prawo do pozwania kogoś, kto bez ich zgody tworzy pornograficzne deepfake’i z użyciem ich podobizn. (…) Drugi zakazuje tworzenia deepfake’ów z wizerunkami kandydatów politycznych w ciągu 60 dni przed wyborami” [8].
Rozwiązania prawne są konieczne, aby móc chronić ofiary, takie jak QT Cinderella — jedna z kobiet, których wizerunek wykorzystano w deepfake’owych materiałach pornograficznych. QT o swojej reakcji, traumie i naruszeniu granic mówiła podczas streamu na żywo na portalu Twitch.tv, gdzie na co dzień udostępnia transmisje gier różnego gatunku.
„Nic takiego nie zrobiłam. Nie zrobiłam nic złego. To właśnie jest nienormalne w tym wszystkim: my (jako kobiety) nie zrobiłyśmy nic złego. Po prostu istniejemy”
— powiedziała QT [9].
Licencjonowana pracownica socjalna Jessica Klein mówi, że wystarczy tylko jeden obraz, zmieniony lub nie, aby wywołać prawdziwą, namacalną traumę, a w przypadku niektórych osób doprowadzić do diagnozy PTSD. Badania potwierdzają, że skutki dla zdrowia psychicznego wynikające z napaści seksualnej i niekonsensualnego wykorzystania wizerunku (jak zemsta porno) są podobne [10].
Takie doświadczenie jest dla wielu kobiet również elementem retraumatyzacji: szczególnie tych, które mają już za sobą doświadczenie przemocy seksualnej takiej jak wspomniany już revenge porn czy gwałt. Mówi o tym m.in. Maya Higa, założycielka Alveus Sanctuary (sanktuarium dzikiej przyrody i wirtualne centrum edukacyjne), pokazująca swoją działalność m.in. również przez platformę Twitch.tv [11].
Źródło: Maya Higa @mayahiga [Twitter]
Podniecenie związane z oglądaniem ciała kobiety bez jej zgody jest ponurym odzwierciedleniem męskiej roszczeniowości, gdy mowa jest o kobiecych granicach i cielesnej autonomii.
Bibliografia:
[1] Sieniawski, B. (2023) Pornografia deep fake palącym problemem. Prawo nie nadąża. EURACTIV.pl. Dostęp: https://www.euractiv.pl/section/bezpieczenstwo-i-obrona/news/pornografia-deep-fake-palacym-problemem-prawo-nie-nadaza/
[2] O’Sullivan, D. (2023) Nonconsensual deepfake porn puts AI in spotlight. CNN. https://edition.cnn.com/2023/02/16/tech/nonconsensual-deepfake-porn/index.html
[3] Silberling, A. i Wiggers, K. (2022) Meet Unstable Diffusion, the group trying to monetize AI porn generators. TechCrunch. Dostęp: https://techcrunch.com/2022/11/17/meet-unstable-diffusion-the-group-trying-to-monetize-ai-porn-generators/
[4] Davies, J. (2023) If deepfake porn teaches us anything, it’s that women’s sexual consent is seen as optional. Glamour Magazine. Dostęp: https://www.glamourmagazine.co.uk/article/deepfake-porn-twitch-scandal
[5] EPS STU (2021) Tackling deepfakes in European policy. Doi: 10.2861/325063
[6] Chen, A. (2019) Forget fake news—nearly all deepfakes are being made for porn. MIT Technology Review. Dostęp: https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/
[7] Cotterill, T. (2023) Paedophiles are using AI art generators to create child porn. Daily Mail. Dostęp: https://www.dailymail.co.uk/news/crime/article-11665797/Paedophiles-using-AI-art-generators-create-child-porn.html
[8] Mihalcik, C. (2019) California laws seek to crack down on deepfakes in politics and porn. Cnet. Dostęp: https://www.cnet.com/news/politics/california-laws-seek-to-crack-down-on-deepfakes-in-politics-and-porn/?utm_source=morning_brew
[9] Ryu, J. (2023) She discovered a naked video of herself online, but it wasn’t her: The trauma of deepfake porn. USA TODAY. Dostęp: https://eu.usatoday.com/story/life/health-wellness/2023/02/14/qtcinderella-deepfake-trauma-nonconsensual-porn/11222588002/
[10] Smith, J. (2023) Twitch stars disgusted to discover themselves on porn site where AI was used to depict them in sex acts without their consent or knowledge. Daily Mail. Dostęp: https://www.dailymail.co.uk/news/article-11719673/Twitch-stars-discover-faces-deep-fake-porn.html
[11] Higa, M. [@mayahiga]. (2023) Zrzut ekranu z tekstem. Twitter. Dostęp: https://twitter.com/mayahiga/status/1620586546083803136?cxt=HHwWgMDR8ZO4vf0sAAAA