Ste se kdaj vprašali, zakaj je na vrhu vsebin, ki vam jih postreže priljubljeno družbeno omrežje, najbolj nezaslišana teorija zarote ali pa morda vsebina, ki vas takoj vrže iz tira in zavede v ure dolgo brskanje po strani?
Avstralski raziskovalec za digitalno varnost Zac Rogers je prepričan, da to nikakor ni naključje, ampak prefinjen način spletnih gigantov, da maksimizirajo svoj dobiček, četudi na račun ustvarjanja toksičnega okolja.
"Sodelujemo v sistemu, kjer pozornost regulira algoritem, ki je v osnovi optimiziran za več besa, ekstremizma, nasilja in sovraštva," je pred časom dejal Rogers, ki ga je povzel NZ Herald.
Podpredsednik družbe Facebook za globalne zadeve in komuniciranje Nick Clegg je obtožbe sicer takrat zanikal, dejal je, da Facebook ne služi s sovraštvom. "Milijarde ljudi uporabljajo Facebook in Instagram, ker imajo dobre izkušnje. Nočejo videti sovražne vsebine, naši oglaševalci je nočejo videti in mi je nočemo videti," so še vztrajali v podjetju.
A raziskovalcev, ki podpirajo Rogersovo mnenje, niti ni malo. Kmalu potem so prišla strokovna pričevanja pred ameriškim kongresom, na podlagi katerih je bilo mogoče ugotoviti, da izpodbijajo trditve gigantov. Pravijo namreč, da so se algoritmi, ki so v središču poslovnih modelov družbenih medijev, naučili, da jeza uporabnike na spletnem mestu zadrži dlje, spodbuja več interakcije, vse to pa poganja oglaševanje.
"Poraja se zavedanje, da so ogorčenje, sovraštvo, ekstremizem, nasilje ... Značilnost delovanja interneta. To ni napaka, ampak dejstvo," pravi Rogers, ki je preučeval dogajanje v Avstraliji.
Na družbenih omrežjih je našel pozive k nasilju, ekstremne primere teorij zarote. Ugotovil pa je tudi, kako počasi ali pa sploh ne deluje Facebookov sistem odstranjevanja takšnih vsebin. Medtem ko je bilo nekaj objav po pritožbah umaknjenih, je denimo skupina, ki je delila takšna sporočila, ostala aktivna.
Pa ne po naključju. "Skupine, ki širijo jezo in razburjenje, so vedno obstajale, jih pa tokrat izkoriščajo algoritmi. Podžiganje teh skupin poganja oglaševanje," poudarja Rogers.
Malo klikamo lepe objave, veliko ekstremne objave
Pri vsem skupaj ne gre zanemariti, da svoj delež krivde nosimo uporabniki. V komentarjih pod novicami v medijih ali pod objavami na družbenih omrežjih je mogoče pogosto zaznati pozive, naj bo več bolj veselih novic. V teoriji uporabniki pravijo, da želijo poštene in uravnotežene poglede.
A eno je teorija, nekaj drugega pa praksa, saj kliki teh uporabnikov razkrivajo nekaj drugega, piše NZ Herald. Te vsebine so deležne veliko manj klikov.
"Zmerna vsebina in pozitivna čustva žal ne poganjajo informacij v tolikšni meri kot jeza. To je dejstvo človeške narave," pravi Rogers. "In algoritmi umetne inteligence so se tega naučili. V odsotnosti etike pa so se izpopolnili do te mere, da to izkoriščajo."
"Mark Zuckerberg skriva dejstvo, da ve, da so sovraštvo, laži in delitve dobri za posel," je pred odborom ameriškega predstavniškega doma leta 2020 povedal strokovnjak za digitalno forenziko Hany Farid.
Rogers pa pravi, da je bil škandal Cambridge Analytica iz leta 2017, ki je želel zagotoviti usmerjeno politično oglaševanje s precizno natančnostjo, le vrh ledene gore. "Odlično je, da lahko izvajaš mikrotargetiranje, vendar najprej potrebuješ pozornost targetiranih. In način, kako se pozornost zbere in izkorišča, je z vzbujanjem besa."
"Facebookov algoritem je tako v prvi vrsti algoritem za zbiranje pozornosti, šele nato algoritem za targetiranje," pravi Rogers. "Ker pa pozornost vzbujajo teme, ki polarizirajo, se na primer objave QAnona, ekstremistične vsebine, tako učinkovito ohranjajo v naši družbi, ker tako delujejo algoritmi."
Strupen poslovni model: ekonomija jeze
"Glavni strup tukaj je poslovni model. Poslovni model je v nasprotju z našimi družbenimi in demokratičnimi cilji," je Farid še zatrdil v kongresu.
Ekonomija jeze sicer ni nova in ne velja izključno za splet. Kričeči časopisni naslovi, jezni glasovi na televiziji – vse to je del ekonomije jeze, opozarjajo pri NZ Heraldu. So pa družbena omrežja po zaslugi umetne inteligence moč ekonomije jeze okrepila na neznosno raven.
Poleg tega so si tehnološki giganti v družbi izborili mesto, ko se jih nikoli ne sprašuje, nikoli ne kliče na odgovornost. Nihče – niti vlada – torej ne sme analizirati, kako delujejo algoritmi, kako so optimizirani ali kakšno človeško vedenje izkoriščajo.
"Tehnološka podjetja manipulirajo z našim občutkom identitete, lastne vrednosti, odnosov, prepričanj, dejanj, pozornosti, spomina, fiziologije in celo procesov oblikovanja navad brez ustrezne odgovornosti," je nekoč dejal nekdanji Googlov etik Tristan Harris. "Ta tehnologija je neposredno privedla do številnih neuspehov in težav, ki jih vsi vidimo: lažne novice, odvisnost, polarizacija, socialna izolacija, upadajoče duševno zdravje najstnikov, razmišljanje o zarotah, erozija zaupanja in zlom resnice."
Tisti, ki so algoritme ustvarili, ne bodo poskrbeli, da bodo etični
Rešitve pa ni na obzorju. Rogers pravi, da bo vsak poskus dodajanja etike algoritmom škodoval dobičku, zato na bolj etične algoritme ne gre računati. Etične skupine znotraj tehnoloških gigantov tako ne služijo svojemu namenu. "Ko sem drugim strokovnjakom za etiko umetne inteligence in človekove pravice opisal delo ekipe za odgovorno umetno inteligenco, so opazili neskladje med težavami, s katerimi se je ukvarjala, in težavami, po katerih je Facebook najbolj razvpit. Zdi se, da je odgovorna umetna inteligenca popolnoma subjektivna stvar, glede na to, za kaj se podjetje odloči, da mu je mar," je pred časom dejala Ellery Roberts Biddle, urednica Ranking Digital Rights. "Sploh ne razumem, kaj mislijo, ko govorijo o pravičnosti. Ali menijo, da je pošteno priporočati ljudem, da se pridružijo ekstremističnim skupinam? Če vsi dobijo priporočilo, ali to pomeni, da je bilo pošteno?"
Svojo vlogo bi zato morali odigrati regulatorji in politika, ki pa izziva ne znajo ali ne želijo rešiti. Zatekajo se k slabim rešitvam. "Zdi se, da sta cenzura in zatiranje informacij refleksna poteza. Vendar ne bo delovala. Osnovni problem je, kako so ta podjetja zgradila internet, da bi izkoriščala in monetizirala najhujše človeške napake," še pravi Rogers.
Nezdružljivost z demokracijo
Posledice pa so lahko uničujoče. Poslovni model družbenih medijev je nezdružljiv z demokracijo, so pred časom sklenili strokovnjaki na razpravi Harvard Law School o stanju demokracije. Socialni mediji ne ogrožajo le demokracije v prihodnosti, ampak so že zdaj naredili precejšnjo škodo. Med največjimi kritiki je bil že omenjeni etik Tristan Harris: "Algoritem ima danes primat nad mediji, nad novicami, je pred založniki časopisov, nad vsakim od nas in nadzoruje, kaj počnemo."
Profesor pravne fakultete na Stanfordu Nate Persily je ocenil, da so družbeni mediji spodbudili bolj strupen politični dialog. "Sistem političnega komuniciranja, ki privilegira viralnost, tudi privilegira določene vrste kandidatur, strategij in komuniciranja – tiste, ki nagovarjajo ogorčenje in čustva," je dejal.
Harris pa meni, da moramo v času družbenih omrežij, ki rušijo tudi izobraževanje in družbeno solidarnost, tudi na novo premisliti, kaj v času algoritmov pomeni svoboda govora. "Govorimo o svobodi govora, ko imamo trilijon dolarjev vredno umetno inteligenco, usmerjeno v vaše možgane, ki je zasnovana tako, da najde naslednjega popolnega črnega moža, ki bo razsvetlil vaš živčni sistem. To ni tisto, kar smo imenovali svoboda govora, ko smo se družili na mestnem trgu."
KOMENTARJI (84)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.