ROZA Portal za feminističke i lijeve politike
ALGORITAM I PATRIJARHALNA IMAGINACIJA
Fotografija: izvor: njbmagazine.com

Aktuelnosti

ALGORITAM I PATRIJARHALNA IMAGINACIJA

Piše: Andrea Perišić Aktuelnosti - 02.06.2025.

Umjesto da budu sredstvo proširenja ljudske slobode, kako smo se nadali prije nekoliko decenija, nove tehnologije sve više osnažuju savez kapitalizma i patrijarhata i postaju sve uticajniji činilac odvraćanja od politike rodne ravnopravnosti i ženske emancipacije

 

 

Nekada, kada je počinjao razvoj digitalnih tehnologija, postojala je nada da će se rodne (i ne samo rodne) nejednakosti prosto istopiti u digitalnom prostoru u kojem će ljudi moći da kreiraju svoje identitete izvan bioloških i socijalnih determinacija. Te nade su odavno pokopane. Danas, mnoge feministkinje koje analiziraju vještačku inteligenciju tvrde da rodne predrasude ne samo da se ne brišu u digitalnom prostoru, već da se one tu iskazuju još slobodnije.

 

Ove feminističke stavove pregnantno sažima sociološkinja Ruha Benjamin u knjizi Race After Technology: Abolitionist Tools for the New Jim Code (2019). „Kad postavimo pitanje da li je nešto rasističko ili seksističko, već je kasno. Bolje pitanje je: koje su vrijednosti, norme i pretpostavke bile ugrađene u izgradnju tog sistema?”, piše Benjamin i ističe da pristrasnost u tehnologiji nije slučajnost.

 

Digitalni asistenti i reprodukcija hijerarhija

 

Kada je riječ o vještačkoj inteligenciji (AI), mogućnosti reprodukovanja rodne diskriminacije su zaista ogromne. Digitalni asistenti, algoritmi za zapošljavanje i sistemi nadzora i tehnologije poput deepfake-a, koji postaju neizostavni dio naše svakodnevice, dizajnirani su na način koji nije rodno neutralan. Od digitalnih asistenata sa ženskim glasovima koji podstiču percepciju poslušnosti do algoritama koji diskriminišu žene u profesionalnim kontekstima – na svakom koraku vidimo da vještačka inteligencija ne samo da nije oslobođena rodnih stereotipa već da ih ona, naprotiv, još više učvršćuje.

 

Većina popularnih digitalnih asistenata –  Siri (Apple), Alexa (Amazon), Google Assistant – podrazumijevano koriste ženske glasove koji su programirani tako da budu ljubazni, uslužni, a često i samokritični kada korisnik pokaže nezadovoljstvo uslugom. Ovakav dizajn nije slučajan: on odražava duboko ukorijenjene društvene norme o ženama kao „prirodnim starateljkama“ – tihim, pokornim i uvijek dostupnim.

 

UNESCO-ov izvještaj iz 2019. godine pod nazivom I'd Blush If I Could: Closing gender divides in digital skills through education, koji je naslovljen prema odgovoru Siri na uvredljive komentare, ukazuje da ovi asistenti podržavaju ideju da su žene podređene, poslušne i da nemaju autonomiju. Dizajniranje ženskog digitalnog asistenta koji reaguje na seksističke komentare smiješkom i šalom šalje poruku da je neprikladno ponašanje prema ženama društveno prihvatljivo. S druge strane, muški AI asistenti, kada ih neko i koristi, često su predstavljeni kao autoriteti – tako, recimo, mnogi GPS sistemi u automobilima imaju opciju muškog glasa koji zvuči odlučno i autoritativno. Ovaj kontrast dodatno reprodukuje tradicionalne rodne uloge: muškarac je taj koji je lider i zna put, dok je žena tu da bude poslušna i od pomoći.

 

Sociološkinja i profesorka na Oksford Internet Institutu (OII) Džudi Vajcman, poznata po svojoj analizi rodno obojene prirode tehnologije, u knjizi TechnoFeminism (2004) istražuje kako rod utiče na dizajn i upotrebu tehnologije. Ona kritikuje činjenicu da tehnologiju najčešće dizajniraju muškarci za svoje potrebe. Vajcman tvrdi da tehnologija ne može biti rodno neutralna budući da se razvija unutar društvenih odnosa koji su već rodno određeni. To znači da tehnologija ne samo da oblikuje naše živote, već da je i sama oblikovana pod uticajem patrijarhalnih vrijednosti i hijerarhija. U ovoj studiji Vajcman objašnjava kako je istorijski razvoj tehnologije bio vezan za muške uloge – žene su, na primjer, bile sistemski isključivane iz procesa inovacija i razvoja inženjeringa, industrije i vojne tehnologije. „Tehnologija je rodno strukturirana jer odražava interese i vrijednosti onih koji je proizvode, a to su uglavnom muškarci“, piše Vajcman. Ona ne govori samo o tome kako tehnologija diskriminiše žene, već ide dalje pokazujući kako rodne uloge i identiteti nastaju kroz upotrebu tehnologije: način na koji žene, na primjer, koriste društvene mreže, kućne aparate, mobilne telefone – sve to oblikuje i njihovu percepciju sopstvene uloge u društvu. Iako su žene često predstavljene samo kao pasivne korisnice interneta i AI, Vajcman ističe da su one zapravo aktivno uključene u kreiranje tehnoloških rješenja, posebno u svakodnevnom životu (npr. u dizajnu softvera za zdravstvo, obrazovanje, domaćinstvo). Ali, ta kreativnost se ne prepoznaje kao tehnološki rad. Zato Vajcman poziva na feministički pristup tehnologiji, koji podrazumijeva aktivniju ulogu žena kao učesnica, inovatorki i kritičarki digitalnog razvoja.

 

Tehnologija i kultura

 

Rodna pristrasnost u tehnologiji nije ograničena samo na glasovne asistente. Poznat je primjer Amazon-a iz 2018. kada je ta kompanija pokušala da napravi sistem vještačke inteligencije koji bi automatski birao najbolje kandidate za posao. Trebalo je da ovaj sistem pomogne regruterima prilikom pregledanja biografija (CV-jeve) i izbora najboljih kandidata za posao. Međutim, pojavio se ozbiljan problem: algoritam, koji je bio utreniran na podacima o ranijim zaposlenima koje je Amazon smatrao „uspješnima“, a koji su uglavnom bili muškarci, jednostavno je počeo da eliminiše žene. Na osnovu raspoloživih podataka algoritam je, naime, zaključio da je „muškarac“ neka vrsta poželjnog profila za posao i „nesvjesno“ počeo da daje prednost muškim kandidatima.

 

Ovaj slučaj jasno pokazuje da i napredne tehnologije preuzimaju predrasude koje već postoje u društvu. Iako nam se može činiti da su algoritmi „neutralni“ i „objektivni“, oni zapravo samo ponavljaju društvene obrasce: ako su ti obrasci nepravedni prema ženama, i algoritam će se ponašati prema ženama na isti način. Kada se algoritmi treniraju na pristrasnim podacima, oni ne samo da reflektuju postojeće društvene nepravde, već ih i takođe i perpetuiraju. Tako tehnologija prestaje da bude alatka za napredak i postaje mehanizam za cementiranje diskriminatornih struktura moći.

 

Profesorka rodnih studija Safija Umoja Noble u knjizi Algorithms of Oppression: How Search Engines Reinforce Racism (2018) ukazala je na to da su algoritmi napravljeni tako da služe komercijalnim interesima, a ne društvenoj pravdi. Noble je napisala da pretraživači – posebno Google – nijesu neutralni alati, već da oni podstiču društvene predrasude, uljučujući rodne i rasne. Tako nas Noble informiše da je većina rezultata koje je dobila kad je u Google pretragu fotografija i linkova upisala „black girls“ bila pornografska ili seksualno sugestivna, što se nije dešavalo kad bi na isti način pretraživala „white girls“ ili „asian girls“. Ona takođe piše o tome da su Google sugestije (autocomplete) prilikom pretrage po rodnoj i etničkoj osnovi često uključivale rasističke i seksističke fraze. Na primjer, kada bi otkucala „latina girls are...“ automatske sugestije ponudile bi joj uvredljive i stereotipne opise, što potvrđuje da algoritam uči iz predrasuda korisnika. Noble piše i o tome kako su pozitivni i edukativni sadržaji o crnim ženama potisnuti ili teško dostupni u rezultatima pretrage, što znači da korisnici teže dolaze do resursa koji predstavljaju crne žene van stereotipa, i objašnjava da je razlog za ovu vrstu pristrasnosti komercijalna logika algoritama – ono što donosi najviše klikova je ono što donosi i najviše novca, tako da u kapitalističkom okviru senzacionalistički i seksualizovani sadržaji često pobjeđuju nad obrazovnim ili afirmativnim informacijama. „Ovo nije problem samo tehnologije, već i kulture koja oblikuje tehnologiju“, zaključuje Noble.

 

Deepfake i nasilje nad ženama u digitalnom prostoru

 

Još jedan uznemirujući primjer zloupotrebe vještačke inteligencije jeste primjena deepfake tehnologije. Deepfake je termin koji se odnosi na tehnologiju koja koristi vještačku inteligenciju za kreiranje lažnih, ali uvjerljivih videozapisa u kojima se nečije lice ili glas ubacuju u sadržaj koji osoba nikada nije snimila. Iako deepfake ima potencijal za kreativnu upotrebu, njegova najrasprostranjenija primjena danas jeste kreiranje lažnih pornografskih sadržaja – gotovo isključivo sa licima žena, često javnih ličnosti, ali i običnih korisnica interneta. Ova tehnologija postala je oruđe za digitalno seksualno nasilje.

 

Digitalne tehnologije ne posjeduju samo tijelo, nego ga i rekonfigurišu, stvarajući nove oblike kontrole, pogleda i potrošnje. Kroz prizmu deepfake pornografije, digitalno žensko tijelo postaje objekt manipulacije, zabave i kontrole, bez pristanka. Time se realizuje ideja da žena ne posjeduje kontrolu nad vlastitim tijelom, već da je ono dostupno, podložno i eksploatisano – čak i u digitalnoj formi. Ovaj oblik digitalnog nasilja ima višestruke posljedice: psihološke traume, društvenu stigmatizaciju, profesionalnu štetu i narušavanje reputacije, uz gotovo nemoguću pravnu zaštitu zbog brzine širenja i anonimnosti počinilaca.

 

Šire gledano, AI se može zloupotrijebiti za nasilje nad ženama u digitalnom prostoru. Tako može doći i do doxxing-a (objavljivanja ličnih podataka bez dozvole), kreiranja lažnih profila, lažnog citiranja i preuzimanja identiteta u svrhu kompromitovanja ili sabotaže, nametanja još nerealnijih standarda ljepote, kao i invazivnog digitalnog nadzora i kontrole (recimo, partneri ili bivši partneri prate lokaciju, komunikaciju i aktivnosti žena pomoću aplikacija i spyware programa). Zabilježeni su i slučajevi utišavanja glasova u javnoj sferi žena koje se bave politikom, novinarstvom, ili aktivizmom, sa ciljem da se obeshrabre da govore ili djeluju.

 

Zanimljiva su zapažanja politikološkinje Virdžinije Eubanks i profesorke Simon Braun koja predaje Black studies na Univerzitetu u Teksasu. Obje su u svojim djelima – prva u Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (2018), a druga u Dark Matters: On the Surveillance of Blackness (2015) – došle do zaključka da automatizovani sistemi, konkretno sistemi nadzora, najviše štete ženama i siromašnim zajednicama. „Siromašni su poligon za testiranje nadzornih sistema, a žene – posebno samohrane majke — često su u središtu tih eksperimenata”, piše Eubanks. Braun je takođe istraživala kako su sistemi nadzora istorijski oblikovani rasnim i rodnim pristrasnostima. „Nadzor je i diskurzivna i materijalna praksa koja učvršćuje rasu i rod“, navodi ona i ističe da su posebno crne žene podložnije digitalnom nadzoru, i da su te prakse duboko ukorijenjene u kolonijalne i patrijarhalne strukture.

 

Ka feminističkoj AI alternativi

 

Ukoliko želimo drugačiju budućnost, potrebna nam je vještačka inteligencija koja razgrađuje patrijarhalne hijerarhijske strukture umjesto da im podliježe. Feministički dizajn AI sistema morao bi biti svjestan društvenih nepravdi i aktivno angažovan u njihovom ispravljanju. Takva AI bi, recimo, odbijala seksističke komentare, edukovala korisnike o rodnoj ravnopravnosti, transparentno prikazivala proces donošenja odluka (npr. kod algoritama za zapošljavanje), omogućavavala reviziju i korekciju pristrasnosti i štitila korisnice i korisnike od zloupotreba, prepoznajući i uklanjajući problematične deepfake sadržaje, govor mržnje i druge oblike digitalnog nasilja. I najvažnije od svega – feministički dizajnirana AI bi morala uključiti feminističke istraživačice, programerke i dizajnerke u proces razvoja, kako bi se osigurala raznolikost perspektiva i iskustava u procesu stvaranja tehnologije.

 

Feministička AI bi, dakle, morala biti alat za osnaživanje, a ne za disciplinovanje. Ona bi prepoznala rodnu dimenziju digitalnog prostora i djelovala u pravcu stvaranja pravičnijeg, humanijeg društva. Vajcman se, recimo, protivi ideji da tehnologija automatski vodi ka napretku. Umjesto toga, na tragu socijalnog konstruktivizma ona zagovara ideju da ljudi, kroz društvene procese, odlučuju kako će tehnologija izgledati i čemu će služiti. „Tehnologija nije ni dobra, ni loša, niti neutralna – ona je onakva kakvi su društveni odnosi čiji je ona proizvod“, piše ona.

 

Pitanje o autonomiji AI, mogućnosti da se ona „otrgne“ od čovjeka je i dalje ipak samo spekulativno pitanje iako može biti zanimljivo (ili mozda zastrašujuće) razmišljati o tome kako bi se neka pretpostavljena „autonomna“ vještačka inteligencija odnosila prema ženskom ptanju. I bez tih spekulacija imamo dovoljno razloga za pesimizam. Umjesto da budu sredstvo proširenja ljudske slobode, kako smo se nadali prije nekoliko decenija, nove tehnologije sve više osnažuju savez kapitalizma i patrijarhata i postaju sve uticajniji činilac odvraćanja od politike rodne ravnopravnosti i ženske emancipacije.