Deepfake i sztuczna inteligencja. O tym jak postęp technologiczny sprzyja nowym formom opresji kobiet

AI porn: Oko­ło 520 000 000 wyni­ków (0,23 s) 

Deep­fa­ke porn: Oko­ło 92 800 000 wyni­ków (0,23 s) 

To wyni­ki wyszu­ki­wa­nia w Google: milio­ny wyni­ków w zasię­gu ręki każ­de­go użyt­kow­ni­ka Inter­ne­tu. Wśród naj­wy­żej pozy­cjo­no­wa­nych wyni­ków znaj­du­ją się licz­ne stro­ny ofe­ru­ją­ce odpłat­ne lub bez­płat­ne two­rze­nie deepfake’ów — lep­szej lub gor­szej jako­ści fil­mów i obra­zów two­rzo­nych oraz mody­fi­ko­wa­nych za pomo­cą sztucz­nej inte­li­gen­cji. Temat tech­no­lo­gii deep­fa­ke na afi­sze naj­więk­szych gazet wypły­nął dopie­ro w ostat­nich mie­sią­cach, po tym, kie­dy w śro­do­wi­sku stre­ame­rek doszło do naru­sze­nia ich gra­nic poprzez wyciek stwo­rzo­nych za pomo­cą wspo­mnia­nej tech­no­lo­gii tre­ści por­no­gra­ficz­nych, któ­rych żad­na z tych kobiet nie two­rzy­ła, ani nawet nie wyra­zi­ła zgo­dy na ich two­rze­nie [1]. 

Temat deepfake’ów poja­wił się w prze­strze­ni publicz­nej już kil­ka lat temu. Sam ter­min „deep­fa­ke” pocho­dzi od nazwy użyt­kow­ni­ka witry­ny, któ­ry w 2017 roku zaczął umiesz­czać w sie­ci tre­ści por­no­gra­ficz­ne zma­ni­pu­lo­wa­ne w taki spo­sób, aby zna­la­zły się tam wize­run­ki zna­nych z show-biz­ne­su kobiet.

„Od same­go począt­ku oso­ba, któ­ra stwo­rzy­ła deepfake’i, uży­wa­ła tej tech­no­lo­gii do two­rze­nia por­no­gra­fii bez zgo­dy kobiet, [któ­rych wize­ru­nek został uży­ty — przyp. tłum.]” 

— powie­dzia­ła CNN Saman­tha Cole, repor­ter­ka Vice’s Mother­bo­ard, któ­ra śle­dzi pro­blem deepfake’ów od momen­tu ich powsta­nia [2].

Tech­no­lo­gia open sour­ce (pol. otwar­te opro­gra­mo­wa­nie) udo­stęp­nio­na przez Sta­bi­li­ty AI two­rzy obra­zy na pod­sta­wie danych tek­sto­wych. Nie trze­ba było dłu­go cze­kać, aby zosta­ła wyko­rzy­sta­na do celów por­no­gra­ficz­nych. Spo­łecz­no­ści z ser­wi­sów Red­dit i 4chan wyko­rzy­sta­ły sys­tem gene­ro­wa­nia zarów­no reali­stycz­nych, jak i sty­li­zo­wa­nych na ani­me obra­zów nagich posta­ci, głów­nie kobiet, a tak­że sztucz­nie gene­ro­wa­nych zdjęć cele­bry­tek [3].

Tech­Crunch poda­je, że pomi­mo dzia­łań admi­nów banu­ją­cych por­no­gra­ficz­ne tre­ści na poszcze­gól­nych forach na pod­sta­wie prze­pi­sów doty­czą­cych nad­użyć w ich regu­la­mi­nach, zaczę­ły powsta­wać nowe, nie­za­leż­ne fora publi­ku­ją­ce por­no­gra­fię deep­fa­ke. Nie­któ­re z nich, jak pewien ser­wer na plat­for­mie Discord, budu­ją całe swo­je mode­le biz­ne­so­we wokół sys­te­mów AI dosto­so­wa­nych do gene­ro­wa­nia por­no. Patre­on [ame­ry­kań­ska plat­for­ma finan­so­wa­nia spo­łecz­nio­ścio­we­go — przyp. red.] gro­ma­dzi obec­nie ponad 2 500 dola­rów mie­sięcz­nie od kil­ku­set dar­czyń­ców na rzecz roz­wo­ju tego ser­we­ra, któ­ry do tej pory wyge­ne­ro­wał ponad 4 375 000 zdjęć por­no­gra­ficz­nych, wyko­rzy­stu­jąc tech­no­lo­gię deep­fa­ke [ibid.].

Ravit Dotan, wice­pre­ze­ska zarzą­dza­ją­ca pro­gra­mem Respon­si­ble AI [pol. spo­łecz­nie odpo­wie­dzial­nej sztucz­nej inte­li­gen­cji] w fir­mie pro­gra­mi­stycz­nej Mis­sion Con­trol w roz­mo­wie z Tech­Crunch mówi o nie­bez­pie­czeń­stwach zwią­za­nych z por­no­gra­fią deepfake:

„Ryzy­ko obej­mu­je nało­że­nie jesz­cze bar­dziej nie­uza­sad­nio­nych, rygo­ry­stycz­nych ocze­ki­wań doty­czą­cych ciał i zacho­wań sek­su­al­nych kobiet, [a tak­że] naru­sza­nie ich pry­wat­no­ści (…). Jed­nym z aspek­tów, któ­ry szcze­gól­nie mnie mar­twi, jest utrwa­la­ją­cy nie­rów­no­ści płcio­we wpływ por­no gene­ro­wa­ne­go przez AI. Dla przy­kła­du poprzed­nia apli­ka­cja opar­ta na AI, któ­ra może »roz­bie­rać« ludzi, dzia­ła tyl­ko na kobie­ty” [3]. 

Deepfake: nowe revenge porn

Źró­dło: Zrzut ekra­nu z forum na por­ta­lu Wykop.pl, gdzie męż­czyź­ni wyko­rzy­stu­ją sztucz­ną inte­li­gen­cję do two­rze­nia mate­ria­łów por­no­gra­ficz­nych m.in. z ich koleżankami.

Deepfake’i od daw­na są wyko­rzy­sty­wa­ne do umiesz­cza­nia twa­rzy kobiet bez ich zgo­dy w fil­mach por­no­gra­ficz­nych. To szcze­gól­nie obrzy­dli­wa i ciem­na stro­na tego, jak obec­nie wyko­rzy­stu­je się sztucz­ną inte­li­gen­cję. Tech­no­lo­gia deep­fa­ke pozwa­la tak­że na roz­wój innych prze­mo­co­wych prak­tyk takich jak m.in. reven­ge porn [publicz­ne udo­stęp­nia­nie intym­nych zdjęć swo­je­go byłe­go part­ne­ra lub part­ner­ki w celu zemsty — przyp. red.]. Obec­nie rze­ko­my „wyciek” pry­wat­nych zdjęć nie musi pocho­dzić od daw­niej zaufa­nej oso­by, któ­ra prze­kro­czy­ła nasze gra­ni­ce i opu­bli­ko­wa­ła pry­wat­ne mate­ria­ły w celu upo­ko­rze­nia. Nagie zdję­cia i nagra­nia w upo­ka­rza­ją­cych pozach i sytu­acjach, tre­ści por­no­gra­ficz­ne i inne są teraz w zasię­gu ręki każ­de­go, kto ma dostęp do nasze­go wize­run­ku – cho­ciaż­by na por­ta­lach takich jak Lin­ke­dIn czy Facebook. 

„Patrze­nie jak robisz coś, cze­go nigdy nie robi­łaś, jest bar­dzo, bar­dzo sur­re­ali­stycz­ne. To tro­chę tak, jak­byś oglą­da­ła coś szo­ku­ją­ce­go ze swo­im udzia­łem. To tak, jak­byś na przy­kład oglą­da­ła film, w któ­rym jesteś zamor­do­wa­na lub taki, w któ­rym ska­czesz z klifu”

— powie­dzia­ła w roz­mo­wie dla CNN Swe­et Ani­ta, stre­amer­ka z Twit­cha, po tym, jak dowie­dzia­ła się, że jej twarz zosta­ła wsta­wio­na do fil­mów por­no­gra­ficz­nych bez jej zgo­dy [1].

Por­no­gra­fia deep­fa­ke jest osta­tecz­nym i nama­cal­nym dowo­dem na to, że zgo­da kobie­ty na czyn­no­ści sek­su­al­ne nie jest spo­łecz­nie postrze­ga­na jako koniecz­na do tego, aby pod­dać ją takim czyn­no­ściom. Jak poda­je Gla­mo­ur, autor jed­ne­go z postów na deepfake’owych forach doma­gał się nagra­nia „wyru­cha­nej na ple­cach”, doda­jąc do posta zdję­cie w peł­ni ubra­nej kobie­ty trzy­ma­ją­cej małe dziec­ko [4]. Inne tego typu posty to: „Czy ktoś mógł­by »nude­sho­po­wać« [od Pho­to­shop, apli­ka­cji do edy­cji zdjęć i nude, pol. nagość — przyp. tłum.] tę dziew­czy­nę z moje­go mia­sta?”, „Czy ktoś może dodać sztucz­ną sper­mę albo pod­mie­nić moją mat­kę?” i „Czy możesz spró­bo­wać [zro­bić deep­fa­ke — przyp. tłum.] z tą 41-let­nią MILF [ang. mom I’d like to fuck, pol. mamuś­ka, któ­rą chciał­bym prze­le­cieć — przyp. tłum.] i jej 18-let­nią cór­ką, pro­szę?” [4].

Jess Davies w arty­ku­le dla bry­tyj­skie­go Gla­mo­ur zwra­ca uwa­gę na to, że każ­da kobie­ta i dziew­czy­na mogą być poten­cjal­nym celem mani­pu­la­cji zwią­za­nych z tech­no­lo­gią deepfake: 

„Więk­szość stron i forów z tre­ścia­mi deep­fa­ke tłu­ma­czy, że gro­ma­dzą tyl­ko fil­my i zdję­cia cele­bry­tów lub osób publicz­nych, ponie­waż są oni »inni niż zwy­kli oby­wa­te­le«. Infor­ma­cja umiesz­czo­na na naj­bar­dziej popu­lar­nej stro­nie z deep­fa­ke porn mówi, że każ­da model­ka pod­da­wa­na dzia­ła­niu apli­ka­cji z tech­no­lo­gią deep­fa­ke musi mieć mini­mum 100 tys. obser­wu­ją­cych na YouTu­be, Twit­te­rze, Twit­chu lub Insta­gra­mie. A jed­nak zna­la­złam zatwier­dzo­ne płat­ne żąda­nie dla poli­tycz­ki z zale­d­wie 30 tys. obser­wu­ją­cych na Twit­te­rze i mniej niż 500 obser­wu­ją­cych na Insta­gra­mie” [4].

Już w 2021 roku dział badań Par­la­men­tu Euro­pej­skie­go zaj­mo­wał się tema­tem deepfake’ów i ich wpły­wu na spo­łe­czeń­stwo [5]. Rathe­nau Insti­tu­ut przy­go­to­wał też info­gra­fi­kę poka­zu­ją­cą dłu­go­fa­lo­we skut­ki nad­uży­wa­nia tej tech­no­lo­gii. I choć raport przy­go­to­wa­ny dla Par­la­men­tu sku­piał się przede wszyst­kim na aspek­tach dez­in­for­ma­cji i poli­tycz­nie moty­wo­wa­nej mani­pu­la­cji, nie jest to naj­po­pu­lar­niej­szy (ani nawet popu­lar­ny) spo­sób użyt­ko­wa­nia tej tech­no­lo­gii. Jak poda­je Deep­tra­ce Labs, spół­ka zaj­mu­ją­ca się two­rze­niem narzę­dzi do zbior­cze­go bada­nia mediów, 96% stwo­rzo­nych deepfake’ów to por­no­gra­fia, któ­ra umac­nia i tak sil­ną już kul­tu­rę gwał­tu [6]. 

Źró­dło: Rathe­nau Instituut

Jess Davies pod­su­mo­wu­je tę kwe­stię następująco: 

„(…) To tyl­ko kolej­ny spo­sób, w jaki męż­czyź­ni zazna­cza­ją swo­ją wła­dzę nad kobie­ta­mi i przej­mu­ją kon­tro­lę nad naszą sek­su­al­no­ścią. Nie ma oso­by, któ­ra w mniej­szym lub więk­szym stop­niu zasłu­gi­wa­ła­by na to, aby umie­ścić ją w fil­mie por­no lub roze­brać do naga w sie­ci bez jej zgo­dy. Kie­dy zaczy­na­my obwi­niać kobie­ty za wyzy­sku­ją­ce dzia­ła­nia ich opraw­ców, zaczy­na­my podą­żać aż za dobrze zna­ną nam ścież­ką obwi­nia­nia ofiar, któ­rej nie­ste­ty wszyst­kie już doświad­czy­ły­śmy. »Ile wypi­łaś?«, »Któ­rę­dy szłaś do domu?«, »W co byłaś ubra­na?«, »Śmia­łaś się prze­cież z jego żar­tów…«” [4].

Wraz z nie­kon­tro­lo­wa­nym dostę­pem do tech­no­lo­gii, któ­rą wyko­rzy­stu­ją męż­czyź­ni chcą­cy upo­ko­rzyć kobie­ty, otwie­ra­ją się kolej­ne wro­ta cyber­prze­mo­cy: nie tyl­ko wobec doro­słych, ale rów­nież nasto­la­tek oraz dzieci.

Deepfake to raj dla pedofili

Pedo­fi­le wyko­rzy­stu­ją tech­no­lo­gię deep­fa­ke do two­rze­nia zdjęć dzie­ci w por­no­gra­ficz­nym kon­tek­ście. Natio­nal Cri­me Agen­cy (NCA) ostrze­ga, że sztucz­na inte­li­gen­cja jest zaprzę­gnię­ta do two­rze­nia zdjęć i fil­mów z praw­dzi­wy­mi ofia­ra­mi [7]. 

W grud­niu 2022 roku został rów­nież aresz­to­wa­ny pro­gra­mi­sta kom­pu­te­ro­wy, któ­ry uży­wał sztucz­nej inte­li­gen­cji do two­rze­nia „praw­dzi­wie szo­ku­ją­cych” obra­zów por­no­gra­fii dzie­cię­cej. Męż­czy­zna został namie­rzo­ny przez poli­cję w Hisz­pa­nii. Jak poda­je Poli­cia Nacio­nal [pol. Poli­cja Pań­stwo­wa], pobie­rał on Inter­ne­tu praw­dzi­we zdję­cia dzie­ci, wpi­su­jąc je następ­nie w por­no­gra­ficz­ne sce­na­riu­sze, któ­re miał stwo­rzyć gene­ra­tor obra­zów AI. Dowo­dy zna­le­zio­ne na jego kom­pu­te­rze to m.in. mate­ria­ły, któ­re zawie­ra­ły gwał­co­ne nie­mow­lę­ta [ibid.].

Podob­nie jak w przy­pad­ku innych grup prze­stęp­czych, twór­cy por­no­gra­fii deep­fa­ke uży­wa­ją komu­ni­ka­to­rów inter­ne­to­wych, aby „han­dlo­wać” zdję­cia­mi, nato­miast prze­stęp­cy sek­su­al­ni czę­sto korzy­sta­ją z Tik­To­ka, aby uzy­skać „mate­riał” do reali­za­cji swo­ich obrzy­dli­wych fantazji. 

W Nowym Jor­ku pewien męż­czy­zna uży­wał deepfake’ów do two­rze­nia por­no­gra­fii z wize­run­ka­mi kole­ża­nek z kla­sy — wyko­rzy­sty­wał zdję­cia z ich mediów spo­łecz­no­ścio­wych z cza­sów, gdy cho­dzi­ły do szko­ły śred­niej, a nawet z cza­sów, kie­dy mia­ły 14 lat [4].

Czy jako spo­łe­czeń­stwo jeste­śmy w sta­nie zapa­no­wać nad tsu­na­mi mizo­gi­nii, z któ­rą spo­ty­ka­ją się coraz młod­sze kobie­ty? Czy nie­licz­ne korzy­ści ze sztucz­nej inte­li­gen­cji war­te są ryzy­ko­wa­nia życia, zdro­wia i bez­pie­czeń­stwa kobiet napa­sto­wa­nych przez nie­na­wist­nych męż­czyzn, któ­rzy wyko­rzy­stu­ją tech­no­lo­gię do two­rze­nia poni­ża­ją­cej je pornografii?

„Ludzie, któ­rzy roz­wi­ja­ją tę tech­no­lo­gię — naukow­cy, oso­by pra­cu­ją­ce w labo­ra­to­riach badaw­czych w Google i Face­bo­oku — musi­cie zacząć zada­wać sobie pyta­nie: dla­cze­go ją roz­wi­ja­cie? Jeśli szko­dy prze­wa­ża­ją nad korzy­ścia­mi, to czy fak­tycz­nie powi­nie­neś zbom­bar­do­wać Inter­net swo­ją tech­no­lo­gią i wypu­ścić ją na zewnątrz, a następ­nie usiąść i powie­dzieć: »cóż, zoba­czy­my, co sta­nie się dalej?«”

— mówi Hany Farid, pro­fe­sor Uni­wer­sy­te­tu Kali­for­nij­skie­go Ber­ke­ley, eks­pert w dzie­dzi­nie cyfro­wej kry­mi­na­li­sty­ki, w roz­mo­wie dla CNN [2].

Jaką walkę możemy podjąć przeciwko nadużyciom deepfake?

Cho­ciaż Par­la­ment Euro­pej­ski już w 2021 roku roz­po­zna­wał potrze­bę stwo­rze­nia odpo­wied­niej legi­sla­tu­ry doty­czą­cej sztucz­nej inte­li­gen­cji, w szcze­gól­no­ści tech­no­lo­gii deep­fa­ke, nadal nie ist­nie­je ogól­no­eu­ro­pej­ski akt praw­ny, któ­ry zapo­bie­gał­by two­rze­niu i roz­po­wszech­nia­niu takich mate­ria­łów czy też karał­by za te czyn­no­ści. Podob­na sytu­acja ma miej­sce w Sta­nach Zjed­no­czo­nych: nie ist­nie­je obec­nie żaden fede­ral­ny akt praw­ny, któ­ry chro­nił­by kobie­ty przed tech­no­lo­gią deep­fa­ke uży­tą bez ich zgo­dy. Jed­na­ko­woż por­no­gra­fia utwo­rzo­na za pomo­cą tej tech­no­lo­gii i bez zgo­dy osób, któ­rych wize­ru­nek został uży­ty, jest nie­le­gal­na w sta­nach Wir­gi­nia i Kali­for­nia. W Kali­for­nii obo­wią­zu­ją aż dwa akty praw­ne doty­czą­ce deepfake’ów. Jak poda­je por­tal Cnet:

„Pierw­szy z nich daje Kali­for­nij­kom pra­wo do pozwa­nia kogoś, kto bez ich zgo­dy two­rzy por­no­gra­ficz­ne deepfake’i z uży­ciem ich podo­bizn. (…) Dru­gi zaka­zu­je two­rze­nia deepfake’ów z wize­run­ka­mi kan­dy­da­tów poli­tycz­nych w cią­gu 60 dni przed wybo­ra­mi” [8].

Roz­wią­za­nia praw­ne są koniecz­ne, aby móc chro­nić ofia­ry, takie jak QT Cin­de­rel­la — jed­na z kobiet, któ­rych wize­ru­nek wyko­rzy­sta­no w deepfake’owych mate­ria­łach por­no­gra­ficz­nych. QT o swo­jej reak­cji, trau­mie i naru­sze­niu gra­nic mówi­ła pod­czas stre­amu na żywo na por­ta­lu Twitch.tv, gdzie na co dzień udo­stęp­nia trans­mi­sje gier róż­ne­go gatunku.

„Nic takie­go nie zro­bi­łam. Nie zro­bi­łam nic złe­go. To wła­śnie jest nie­nor­mal­ne w tym wszyst­kim: my (jako kobie­ty) nie zro­bi­ły­śmy nic złe­go. Po pro­stu istniejemy” 

— powie­dzia­ła QT [9].

Licen­cjo­no­wa­na pra­cow­ni­ca socjal­na Jes­si­ca Kle­in mówi, że wystar­czy tyl­ko jeden obraz, zmie­nio­ny lub nie, aby wywo­łać praw­dzi­wą, nama­cal­ną trau­mę, a w przy­pad­ku nie­któ­rych osób dopro­wa­dzić do dia­gno­zy PTSD. Bada­nia potwier­dza­ją, że skut­ki dla zdro­wia psy­chicz­ne­go wyni­ka­ją­ce z napa­ści sek­su­al­nej i nie­kon­sen­su­al­ne­go wyko­rzy­sta­nia wize­run­ku (jak zemsta por­no) są podob­ne [10]. 

Takie doświad­cze­nie jest dla wie­lu kobiet rów­nież ele­men­tem retrau­ma­ty­za­cji: szcze­gól­nie tych, któ­re mają już za sobą doświad­cze­nie prze­mo­cy sek­su­al­nej takiej jak wspo­mnia­ny już reven­ge porn czy gwałt. Mówi o tym m.in. Maya Higa, zało­ży­ciel­ka Alveus Sanc­tu­ary (sank­tu­arium dzi­kiej przy­ro­dy i wir­tu­al­ne cen­trum edu­ka­cyj­ne), poka­zu­ją­ca swo­ją dzia­łal­ność m.in. rów­nież przez plat­for­mę Twitch.tv [11].

Źró­dło: Maya Higa @mayahiga [Twit­ter]

Pod­nie­ce­nie zwią­za­ne z oglą­da­niem cia­ła kobie­ty bez jej zgo­dy jest ponu­rym odzwier­cie­dle­niem męskiej rosz­cze­nio­wo­ści, gdy mowa jest o kobie­cych gra­ni­cach i cie­le­snej autonomii.


Bibliografia:

[1] Sie­niaw­ski, B. (2023) Por­no­gra­fia deep fake palą­cym pro­ble­mem. Pra­wo nie nadą­ża. EURACTIV.pl. Dostęp: https://www.euractiv.pl/section/bezpieczenstwo-i-obrona/news/pornografia-deep-fake-palacym-problemem-prawo-nie-nadaza/

[2] O’Sullivan, D. (2023) Non­con­sen­su­al deep­fa­ke porn puts AI in spo­tli­ght. CNN. https://edition.cnn.com/2023/02/16/tech/nonconsensual-deepfake-porn/index.html 

[3] Sil­ber­ling, A. i Wig­gers, K. (2022) Meet Unsta­ble Dif­fu­sion, the gro­up try­ing to mone­ti­ze AI porn gene­ra­tors. Tech­Crunch. Dostęp: https://techcrunch.com/2022/11/17/meet-unstable-diffusion-the-group-trying-to-monetize-ai-porn-generators/ 

[4] Davies, J. (2023) If deep­fa­ke porn teaches us any­thing, it’s that women’s sexu­al con­sent is seen as optio­nal. Gla­mo­ur Maga­zi­ne. Dostęp: https://www.glamourmagazine.co.uk/article/deepfake-porn-twitch-scandal 

[5] EPS STU (2021) Tac­kling deep­fa­kes in Euro­pe­an poli­cy. Doi: 10.2861/325063

[6] Chen, A. (2019) For­get fake news—nearly all deep­fa­kes are being made for porn. MIT Tech­no­lo­gy Review. Dostęp: https://www.technologyreview.com/2019/10/07/132735/deepfake-porn-deeptrace-legislation-california-election-disinformation/ 

[7] Cot­te­rill, T. (2023) Paedo­phi­les are using AI art gene­ra­tors to cre­ate child porn. Daily Mail. Dostęp: https://www.dailymail.co.uk/news/crime/article-11665797/Paedophiles-using-AI-art-generators-create-child-porn.html

[8] Mihal­cik, C. (2019) Cali­for­nia laws seek to crack down on deep­fa­kes in poli­tics and porn. Cnet. Dostęp: https://www.cnet.com/news/politics/california-laws-seek-to-crack-down-on-deepfakes-in-politics-and-porn/?utm_source=morning_brew

[9] Ryu, J. (2023) She disco­ve­red a naked video of her­self onli­ne, but it wasn’t her: The trau­ma of deep­fa­ke porn. USA TODAY. Dostęp: https://eu.usatoday.com/story/life/health-wellness/2023/02/14/qtcinderella-deepfake-trauma-nonconsensual-porn/11222588002/

[10] Smith, J. (2023) Twitch stars dis­gu­sted to disco­ver them­se­lves on porn site whe­re AI was used to depict them in sex acts witho­ut the­ir con­sent or know­led­ge. Daily Mail. Dostęp: https://www.dailymail.co.uk/news/article-11719673/Twitch-stars-discover-faces-deep-fake-porn.html 

[11] Higa, M. [@mayahiga]. (2023) Zrzut ekra­nu z tek­stem. Twit­ter. Dostęp: https://twitter.com/mayahiga/status/1620586546083803136?cxt=HHwWgMDR8ZO4vf0sAAAA