Umjesto da budu
sredstvo proširenja ljudske slobode, kako smo se nadali prije nekoliko
decenija, nove tehnologije sve više osnažuju savez kapitalizma i patrijarhata i
postaju sve uticajniji činilac odvraćanja od politike rodne ravnopravnosti i
ženske emancipacije
Nekada, kada je počinjao razvoj digitalnih
tehnologija, postojala je nada da će se rodne (i ne samo rodne) nejednakosti
prosto istopiti u digitalnom prostoru u kojem će ljudi moći da kreiraju svoje
identitete izvan bioloških i socijalnih determinacija. Te nade su odavno pokopane.
Danas, mnoge feministkinje koje analiziraju vještačku inteligenciju tvrde da rodne
predrasude ne samo da se ne brišu u digitalnom prostoru, već da se one tu iskazuju
još slobodnije.
Ove feminističke stavove pregnantno sažima sociološkinja
Ruha Benjamin u knjizi Race After Technology: Abolitionist Tools for the
New Jim Code (2019). „Kad postavimo pitanje da li je nešto rasističko ili
seksističko, već je kasno. Bolje pitanje je: koje su vrijednosti, norme i
pretpostavke bile ugrađene u izgradnju tog sistema?”, piše Benjamin i ističe da
pristrasnost u tehnologiji nije slučajnost.
Digitalni asistenti i reprodukcija hijerarhija
Kada je riječ o vještačkoj inteligenciji (AI),
mogućnosti reprodukovanja rodne diskriminacije su zaista ogromne. Digitalni
asistenti, algoritmi za zapošljavanje i sistemi nadzora i tehnologije poput
deepfake-a, koji postaju neizostavni dio naše svakodnevice, dizajnirani su na
način koji nije rodno neutralan. Od digitalnih asistenata sa ženskim glasovima
koji podstiču percepciju poslušnosti do algoritama koji diskriminišu žene u profesionalnim
kontekstima – na svakom koraku vidimo da vještačka inteligencija ne samo da nije
oslobođena rodnih stereotipa već da ih ona, naprotiv, još više učvršćuje.
Većina popularnih digitalnih asistenata – Siri (Apple), Alexa (Amazon), Google Assistant
– podrazumijevano koriste ženske glasove koji su programirani tako da budu
ljubazni, uslužni, a često i samokritični kada korisnik pokaže nezadovoljstvo
uslugom. Ovakav dizajn nije slučajan: on odražava duboko ukorijenjene društvene
norme o ženama kao „prirodnim starateljkama“ – tihim, pokornim i uvijek
dostupnim.
UNESCO-ov izvještaj iz 2019. godine pod nazivom I'd Blush If I Could: Closing gender
divides in digital skills through education, koji je naslovljen prema
odgovoru Siri na uvredljive komentare, ukazuje da ovi asistenti podržavaju
ideju da su žene podređene, poslušne i da nemaju autonomiju. Dizajniranje
ženskog digitalnog asistenta koji reaguje na seksističke komentare smiješkom i
šalom šalje poruku da je neprikladno ponašanje prema ženama društveno prihvatljivo.
S druge strane, muški AI asistenti, kada ih neko i koristi, često su
predstavljeni kao autoriteti – tako, recimo, mnogi GPS sistemi u automobilima
imaju opciju muškog glasa koji zvuči odlučno i autoritativno. Ovaj kontrast
dodatno reprodukuje tradicionalne rodne uloge: muškarac je taj koji je lider i
zna put, dok je žena tu da bude poslušna i od pomoći.
Sociološkinja i profesorka na Oksford Internet
Institutu (OII) Džudi Vajcman, poznata po svojoj analizi rodno obojene prirode
tehnologije, u knjizi TechnoFeminism (2004) istražuje kako rod utiče na
dizajn i upotrebu tehnologije. Ona kritikuje činjenicu da tehnologiju najčešće dizajniraju
muškarci za svoje potrebe. Vajcman tvrdi da tehnologija ne može biti rodno
neutralna budući da se razvija unutar društvenih odnosa koji su već rodno
određeni. To znači da tehnologija ne samo da oblikuje naše živote, već da je i
sama oblikovana pod uticajem patrijarhalnih vrijednosti i hijerarhija. U ovoj studiji
Vajcman objašnjava kako je istorijski razvoj tehnologije bio vezan za muške
uloge – žene su, na primjer, bile sistemski isključivane iz procesa inovacija i
razvoja inženjeringa, industrije i vojne tehnologije. „Tehnologija je rodno
strukturirana jer odražava interese i vrijednosti onih koji je proizvode, a to
su uglavnom muškarci“, piše Vajcman. Ona ne govori samo o tome kako tehnologija
diskriminiše žene, već ide dalje pokazujući kako rodne uloge i identiteti
nastaju kroz upotrebu tehnologije: način na koji žene, na primjer, koriste
društvene mreže, kućne aparate, mobilne telefone – sve to oblikuje i njihovu
percepciju sopstvene uloge u društvu. Iako su žene često predstavljene samo kao
pasivne korisnice interneta i AI, Vajcman ističe da su one zapravo aktivno
uključene u kreiranje tehnoloških rješenja, posebno u svakodnevnom životu (npr.
u dizajnu softvera za zdravstvo, obrazovanje, domaćinstvo). Ali, ta kreativnost
se ne prepoznaje kao tehnološki rad. Zato Vajcman poziva na feministički
pristup tehnologiji, koji podrazumijeva aktivniju ulogu žena kao učesnica,
inovatorki i kritičarki digitalnog razvoja.
Tehnologija i kultura
Rodna pristrasnost u tehnologiji nije ograničena samo
na glasovne asistente. Poznat je primjer Amazon-a iz 2018. kada je ta kompanija
pokušala da napravi sistem vještačke inteligencije koji bi automatski birao
najbolje kandidate za posao. Trebalo je da ovaj sistem pomogne regruterima
prilikom pregledanja biografija (CV-jeve) i izbora najboljih kandidata za posao.
Međutim, pojavio se ozbiljan problem: algoritam, koji je bio utreniran na
podacima o ranijim zaposlenima koje je Amazon smatrao „uspješnima“, a koji su
uglavnom bili muškarci, jednostavno je počeo da eliminiše žene. Na osnovu
raspoloživih podataka algoritam je, naime, zaključio da je „muškarac“ neka vrsta
poželjnog profila za posao i „nesvjesno“ počeo da daje prednost muškim
kandidatima.
Ovaj slučaj jasno pokazuje da i napredne tehnologije preuzimaju
predrasude koje već postoje u društvu. Iako nam se može činiti da su algoritmi „neutralni“
i „objektivni“, oni zapravo samo ponavljaju društvene obrasce: ako su ti
obrasci nepravedni prema ženama, i algoritam će se ponašati prema ženama na
isti način. Kada se algoritmi treniraju na pristrasnim podacima, oni ne samo da
reflektuju postojeće društvene nepravde, već ih i takođe i perpetuiraju. Tako tehnologija
prestaje da bude alatka za napredak i postaje mehanizam za cementiranje
diskriminatornih struktura moći.
Profesorka rodnih studija Safija Umoja Noble u knjizi Algorithms of Oppression: How
Search Engines Reinforce Racism (2018) ukazala je na to da su
algoritmi napravljeni tako da služe komercijalnim interesima, a ne društvenoj
pravdi. Noble je napisala da pretraživači – posebno Google – nijesu neutralni
alati, već da oni podstiču društvene predrasude, uljučujući rodne i rasne. Tako
nas Noble informiše da je većina rezultata koje je dobila kad je u Google
pretragu fotografija i linkova upisala „black girls“ bila pornografska ili
seksualno sugestivna, što se nije dešavalo kad bi na isti način pretraživala „white
girls“ ili „asian girls“. Ona takođe piše o tome da su Google sugestije (autocomplete)
prilikom pretrage po rodnoj i etničkoj osnovi često uključivale rasističke i
seksističke fraze. Na primjer, kada bi otkucala „latina girls are...“
automatske sugestije ponudile bi joj uvredljive i stereotipne opise, što potvrđuje
da algoritam uči iz predrasuda korisnika. Noble piše i o tome kako su pozitivni
i edukativni sadržaji o crnim ženama potisnuti ili teško dostupni u rezultatima
pretrage, što znači da korisnici teže dolaze do resursa koji predstavljaju crne
žene van stereotipa, i objašnjava da je razlog za ovu vrstu pristrasnosti
komercijalna logika algoritama – ono što donosi najviše klikova je ono što donosi
i najviše novca, tako da u kapitalističkom okviru senzacionalistički i seksualizovani
sadržaji često pobjeđuju nad obrazovnim ili afirmativnim informacijama. „Ovo nije
problem samo tehnologije, već i kulture koja oblikuje tehnologiju“, zaključuje Noble.
Deepfake i nasilje nad ženama u digitalnom prostoru
Još jedan uznemirujući primjer zloupotrebe vještačke
inteligencije jeste primjena deepfake tehnologije. Deepfake je termin koji se
odnosi na tehnologiju koja koristi vještačku inteligenciju za kreiranje lažnih,
ali uvjerljivih videozapisa u kojima se nečije lice ili glas ubacuju u sadržaj
koji osoba nikada nije snimila. Iako deepfake ima potencijal za kreativnu
upotrebu, njegova najrasprostranjenija primjena danas jeste kreiranje lažnih
pornografskih sadržaja – gotovo isključivo sa licima žena, često javnih
ličnosti, ali i običnih korisnica interneta. Ova tehnologija postala je oruđe
za digitalno seksualno nasilje.
Digitalne tehnologije ne posjeduju samo tijelo, nego
ga i rekonfigurišu, stvarajući nove oblike kontrole, pogleda i potrošnje. Kroz
prizmu deepfake pornografije, digitalno žensko tijelo postaje objekt
manipulacije, zabave i kontrole, bez pristanka. Time se realizuje ideja da žena
ne posjeduje kontrolu nad vlastitim tijelom, već da je ono dostupno, podložno i
eksploatisano – čak i u digitalnoj formi. Ovaj oblik digitalnog nasilja ima
višestruke posljedice: psihološke traume, društvenu stigmatizaciju,
profesionalnu štetu i narušavanje reputacije, uz gotovo nemoguću pravnu zaštitu
zbog brzine širenja i anonimnosti počinilaca.
Šire gledano, AI se može zloupotrijebiti za nasilje
nad ženama u digitalnom prostoru. Tako može doći i do doxxing-a (objavljivanja
ličnih podataka bez dozvole), kreiranja lažnih profila, lažnog citiranja i
preuzimanja identiteta u svrhu kompromitovanja ili sabotaže, nametanja još
nerealnijih standarda ljepote, kao i invazivnog digitalnog nadzora i kontrole
(recimo, partneri ili bivši partneri prate lokaciju, komunikaciju i aktivnosti
žena pomoću aplikacija i spyware programa). Zabilježeni su i slučajevi
utišavanja glasova u javnoj sferi žena koje se bave politikom, novinarstvom,
ili aktivizmom, sa ciljem da se obeshrabre da govore ili djeluju.
Zanimljiva su zapažanja politikološkinje Virdžinije
Eubanks i profesorke Simon Braun koja predaje Black studies na Univerzitetu u
Teksasu. Obje su u svojim djelima – prva u Automating Inequality: How
High-Tech Tools Profile, Police, and Punish the Poor (2018), a druga u Dark
Matters: On the Surveillance of Blackness (2015) – došle do zaključka da automatizovani
sistemi, konkretno sistemi nadzora, najviše štete ženama i siromašnim zajednicama.
„Siromašni su poligon za testiranje nadzornih sistema, a žene – posebno
samohrane majke — često su u središtu tih eksperimenata”, piše Eubanks. Braun
je takođe istraživala kako su sistemi nadzora istorijski oblikovani rasnim i
rodnim pristrasnostima. „Nadzor je i diskurzivna i materijalna praksa koja
učvršćuje rasu i rod“, navodi ona i ističe da su posebno crne žene podložnije
digitalnom nadzoru, i da su te prakse duboko ukorijenjene u kolonijalne i
patrijarhalne strukture.
Ka feminističkoj AI alternativi
Ukoliko želimo drugačiju budućnost, potrebna nam je vještačka
inteligencija koja razgrađuje patrijarhalne hijerarhijske strukture umjesto da
im podliježe. Feministički dizajn AI sistema morao bi biti svjestan društvenih
nepravdi i aktivno angažovan u njihovom ispravljanju. Takva AI bi, recimo,
odbijala seksističke komentare, edukovala korisnike o rodnoj ravnopravnosti, transparentno
prikazivala proces donošenja odluka (npr. kod algoritama za zapošljavanje),
omogućavavala reviziju i korekciju pristrasnosti i štitila korisnice i
korisnike od zloupotreba, prepoznajući i uklanjajući problematične deepfake
sadržaje, govor mržnje i druge oblike digitalnog nasilja. I najvažnije od svega
– feministički dizajnirana AI bi morala uključiti feminističke istraživačice,
programerke i dizajnerke u proces razvoja, kako bi se osigurala raznolikost
perspektiva i iskustava u procesu stvaranja tehnologije.
Feministička AI bi, dakle, morala biti alat za osnaživanje,
a ne za disciplinovanje. Ona bi prepoznala rodnu dimenziju digitalnog prostora
i djelovala u pravcu stvaranja pravičnijeg, humanijeg društva. Vajcman se,
recimo, protivi ideji da tehnologija automatski vodi ka napretku. Umjesto toga,
na tragu socijalnog konstruktivizma ona zagovara ideju da ljudi, kroz društvene
procese, odlučuju kako će tehnologija izgledati i čemu će služiti. „Tehnologija
nije ni dobra, ni loša, niti neutralna – ona je onakva kakvi su društveni
odnosi čiji je ona proizvod“, piše ona.
Pitanje o autonomiji AI, mogućnosti da se ona „otrgne“
od čovjeka je i dalje ipak samo spekulativno pitanje iako može biti zanimljivo
(ili mozda zastrašujuće) razmišljati o tome kako bi se neka pretpostavljena „autonomna“
vještačka inteligencija odnosila prema ženskom ptanju. I bez tih spekulacija
imamo dovoljno razloga za pesimizam. Umjesto da budu sredstvo proširenja
ljudske slobode, kako smo se nadali prije nekoliko decenija, nove tehnologije
sve više osnažuju savez kapitalizma i patrijarhata i postaju sve uticajniji
činilac odvraćanja od politike rodne ravnopravnosti i ženske emancipacije.