U čijim rukama je vaša pažnja? Priča o algoritmu potlačenih

Portal ETV

Piše: Vuk Vuković, producent i univerzitetski profesor 

Nakon čitanja sociološke studije Prognani pojmovi Todora Kuljića intenzivno sam počeo da razmišljam o pojmovima koji određuju savremeno društvo, a posebno o onima koji istražuju nejednakosti u društvu. Ili, da ovdje parafraziram Kuljića - kako prepoznati društvene uslove novog opojmljavanja istorijskog i savremenog iskustva? Čini se da kao indikator za ovu analizu možemo uzeti niz pojmova koji se pojavljuju, iz godine u godinu, kao riječi koje su obilježile određeni period: brain rot (2024), 

generative artificial intelligence (2023), AI (2023), doomscrolling (2020), cancel culture (2019), sharing economy (2015), #blacklivesmatter (2014)... Ova adhoc analiza nam, izgleda, nudi zaključak da su ključni pojmovi savremenog društva nužno vezani za digitalnu kulturu, odnosno - da je trend „opojmljavanja savremenog iskustva“ u direktnoj vezi sa fenomenima medijske kulture. Ako ovu leksičku analizu svedemo na jedan pojam - zajednički imenitelj bi bio onaj koji objedinjuje sve pomenute prakse i fenomene: njegovo veličanstvo Algoritam.  

Vrijeme algoritma 

Iako (vjerovatno) potiče iz 9. vijeka i suštinski pripada polju koje je ograničeno matematikom kao formalnom i egzaktnom naukom, pojam algoritma je vremenom migrirao i u polje društveno-humanističkih nauka, posebno zadirući u oblast digitalne humanistike. Upravo zbog toga, set precizno definisanih koraka za rješavanje problema (što je jedna od definicija algoritma), otvorio je niz društvenih problema koje, sagledane u kontekstu medijske pismenosti, Svetlana Jovetić Koprivica naziva Tortura algoritma. I možda se upravo u procesu medijskog opismenjavanja krije spoj rigoroznih STEM disciplina i kritičke refleksije društvenih nauka. Iz tog spoja rodile su se, između ostalog, i - etičke dileme i ono što nezgrapno prevodimo - algoritamska pristrasnost (algorithm bias).  

Kako algoritmi biraju umjesto nas? 

Međutim - kako uopšte algoritam danas funkcioniše, šta su bila očekivanja algoritamskog funkcionisanja, a šta smo dobili kao realnost? Algoritamska personalizacija ili personalizovana algoritamska selekcija je obilježila posljednje dvije decenije, a posebno eru društvenih medija. Još otkako je Google 2004. godine uveo personalizovanu pretragu (od 2009. godine - kao standard za sve korisnike, čak i one koji su izlogovani sa svojih računa, a ni brisanje "kolačića" neće mnogo pomoći), niz medijskih platformi (Facebook, Instagram, TikTok...) je ušao u trku - ko će ponuditi „bolji“ algoritam. 

Kvalitet algoritma, suštinski gledano, procjenjivan je na osnovu dva kriterijuma: koliko dugo zaokuplja pažnju korisnika (ekonomija pažnje) i koliko novca donosi platformama/oglašivačima. 

Takvi kriterijumi, ukratko, dehumanizuju proces personalizovane selekcije sadržaja i svjedoče o dominaciji lukrativnih obrazaca produkcije sadržaja čiji je osnovni cilj - eksploatacija korisnika. Ipak, algoritamska personalizacija kao kompleksan mehanizam obrade velikih podataka o ponašanju korisnika na internetu nastao je kao odgovor na ubrzanu akumulaciju medijskog materijala: neki podaci ukazuju da se danas, dnevno, generiše preko 400 terabajta (TB) sadržaja zbog čega se opravdano postavlja pitanje - šta mi radimo sa toliko medijskog sadržaja? 

Ideja da platforme same, u naše ime i na osnovu naših podataka, selektuju sadržaje koji su nam korisni ili zadovoljavaju naše potrebe možda je svojevremeno mogla da se tumači kao strategija koja bi nam omogućavala da pristupamo sadržajima koji su za nas najrelevantniji, odnosno da apsolutnu kontrolu nad personalizacijom imamo mi kao korisnici. 

Prediktivna analitika, u praksi, ispostavilo se da radi isključivo za velike korporacije koje imaju kontrolu nad procesom selekcije sadržaja, ali i nad podacima koje im, voljno i nevoljno, dajemo na raspolaganje. O tome svjedoči i hipoteza da je ključnu ulogu u kontekstu referenduma u Velikoj Britaniji (Brexit) imalo upravo algoritamsko filtriranje i distribucija informacija koji su oblikovali način na koji je javnost percipirala ključna pitanja migracija, suvereniteta, ekonomije i EU birokratije. 

Kada algoritmi postanu nepravedni  

Distopijska slika algoritma ne iscrpljuje se samo u personalizovanoj selekciji i manipulaciji našim podacima, već i u sistemskim, ponavljajućim „greškama“ kojima ne upravlja (isključivo) čovjek niti veliki centri moći. Greške su, ustvari, nepravedni i diskriminatorni rezultati koje tendenciozno daje automatizovani sistem, pri čemu favorizuje jednu grupu podataka na račun druge. Ovakva diskriminacija nije (nužno) u funkciji akumulacije kapitala, ali ona jeste dokaz da algoritam nije neutralan, odnosno da je pristrasnost integrisana kroz dizajn algoritma, podatke ili način primjene/obrade podataka.  

Google je 2015. godine uveo aplikaciju za prepoznavanje sadržaja na slikama i otvorio polje digitalnih stereotipa: tamnopute osobe algoritam je prepoznavao i obilježavao kao gorile, zbog čega se Google izvinio. Godinama kasnije, Google, a ni ostale globalne korporacije poput Applea, ne omogućavaju prepoznavanje gorila jer su tu oznaku blokirali u svojim algoritmima, čime su samo zaobišli problem i umjesto rješenja ponudili prividnu neutralnost. Sličnu pristrasnost je pokazivao i algoritam COMPAS koji je korišćen za procjenu rizika od ponovnog činjenja krivičnog djela u nekim državama SAD: istraživačka analiza je pokazala da je algoritam češće davao lažno visoke ocjene rizika afroameričkim optuženicima (u poređenju sa bjelcima), odnosno da su oni dvostručko češće označavani kao budući prestupnici, dok su bijelci češće (pogrešno) ocjenjeni kao nisko-rizični. 

Amazon je razvijao AI alat za pregled radnih biografija koje je trebalo rangirati na osnovu uspješnosti, ali je brzo otkriveno da algoritam diskriminiše žene. Podaci na kojima je algoritam „treniran“ bili su istorijski uslovljeni okolnošću da je dominacija muškaraca u tehnološkom sektoru vodila tome da rezimei kandidatkinja dobijaju „kaznene“ bodove. Amazon je obustavio primjenu projekta, zbog opasnosti da bi se slične greške mogle ponoviti. Ovakvu polnu i rodnu diskriminaciju imali su i kodovi za ciljano oglašavanje (Facebook) ili kreditno bodovanje (Apple Card) koji su, takođe, favorizovali određeni pol, iako im to nije zadato kao namjera. 

Iako postoji niz primjera koji se, u akademskim krugovima, već odavno tretiraju kao naučni i etički problem, regulativa sporo sustiže tehnologiju i njen razvoj. Američka administracija prije nekoliko godina objavila je dokument naslovljen Blueprint for an AI Bill of Right sa nizom neobavezujućih principa koji se tiču vještačke inteligencije, od kojih se dio posebno tiče zabrane od algoritamske diskriminacije. Neka od ovih pitanja evropska regulativa pokušala je da tretira kroz Opštu uredbu o zaštiti podataka (GDPR), Akt o digitalnim uslugama (DSA) ili Akt o vještačkoj inteligenciji (AI Act), ali je otvoreno pitanje kako će sve ovo zemlje članice EU (i one koje deklarativno to žele da postanu) sprovoditi u svakodnevnoj praksi. Crnogorsko zakonodavstvo pasivno prati i one medijske standarde koji se tiču i tradicionalnih medija, te nije za očekivati da pitanje vještačke inteligencije i algoritamske pristrasnosti bude tačka dnevnog reda nadležnih institucija, prije svega - Vlade i Skupštine Crne Gore. 

Ono što je očigledno iz ovih primjera je da razvoj tehnologije, iako potiče iz egzaktnih nauka, nije neutralan, već jako odražava i odslikava društvene prilike i okolnosti. Algoritamska pristrasnost je, dakle, samo digitalizovana diskriminacija koja decenijama i vjekovima postoji u društvu, po svim osnovama - polnom, rodnom, klasnom, seksualnom, rasnom, itd. Tako digitalizovana, diskriminacija više nije samo vremenska kategorija, već je postala i prostorna - time što se proširila na sve medije kao produžetke naših čula, kako bi to rekao Maršal Makluan. Ipak, kao takva, ona je opasnija: upravo zbog pretpostavke da su računarske odluke objektivne i egzaktne, one dobijaju povjerenje koje ne zaslužuju, a njihova pristrasnost je teže uočljiva. Otkrivanje prividne neutralnosti zadatak je svih nas, svakodnevno i svuda - i to ne samo da bi AI sistemi bili pravedniji, transparentniji i bezbjedniji za društvo. Možda će tako, bar u digitalnom društvu, diskriminacija biti jedan od - prognanih pojmova. 

Ovaj tekst je pisan za sajt medijskapismenost.me u okviru programa Agencije za audiovizuelne medijske usluge.