Jonas Valbjørn Andersen je raziskovalec v skupini za tehnologijo, inovacije, upravljanje in podjetništvo na univerzi IT v Köbenhavnu. Njegove raziskave se osredotočajo na digitalno porazdeljene sisteme in procese, povezane z organizacijskim in algoritmičnim odločanjem.
Doktoriral je s področja digitalnih inovacij v bančništvu v Veliki Britaniji. "To me je vedno zanimalo," pravi. Tudi zato ker se je v njegovih študijskih letih to področje hitro razvijalo, med drugim je z razmahom tehnologije veriženja blokov, kriptovalut postalo tudi javno precej prepoznavno in zanimivo. Na vse skupaj je znotraj sektorja vplivala tudi želja po iskanju "novih poti in pristopov" po uničujoči finančni krizi.
Andersen se danes ukvarja z vplivom algoritmičnega odločanja v bančnem sistemu – kako lahko s pomočjo algoritmov organiziramo in upravljamo stvari. Čeprav je zagovornik uvajanja umetne inteligence (AI) v procese finančnega sektorja, je prepričan, da ga povsem avtomatizirati ni mogoče, prav tako izpostavlja nujnost regulacije – a ne koščkov tehnologije, ampak njenih vplivov: "Ko trenutno govorimo o regulaciji umetne inteligence, se o tem pogovarjamo, kot bi v avtomobilski industriji želeli regulirati delčke, ki sestavljajo motor, ne pa tudi omejiti največje dovoljene hitrosti. In to ni pravi pristop, če želimo, da bo uporaba AI varna in etična."
"Odločitve, ki jih 'sprejema' umetna inteligenca, niso manifestacija 'volje algoritmov', ampak posledica vhodnih podatkov – ki jih priskrbimo ljudje"
Andersen, s katerim sva se pogovarjala ob robu konference Soobstoj z umetno inteligenco: vizija Družbe 5.0, ki je pred kratkim potekala v Ljubljani v organizaciji Zavoda 14, je torej glede uvajanja novih tehnologij zmeren optimist. Ni eden tistih, ki pravijo – če bi kontrolo predali "računalnikom" – se finančna kriza ne bi zgodila. "Algoritmi so po svoje zelo zapleteni, težko razumljivi, po svoje pa zelo preprosti. Večina napak, ki jih storijo računalniki, je posledica napačnih vhodnih podatkov. Torej tistih podatkov, ki jih v obdelavo 'pošljemo' ljudje."
Algoritmi torej obdelujejo digitalne sledi, ki jih puščamo za seboj – pravzaprav na vsakem koraku. "Že ko snemava ta pogovor, ustvarjava veliko podatkov. Ko sem bil na poti sem, sem uporabil Google Maps, da se nisem izgubil – in torej pustil za seboj sled celotnega mojega gibanja," razlaga Andersen. "Algoritmi imajo potencialno na voljo res veliko podatkov, ampak rezultati njihovega delovanja so bolj odraz našega vedenja, ki ga izluščijo iz podatkov – kot manifestacija njihove volje."
AI nas sili, da se pogledamo v ogledalo
"Svojevoljnega, jeznega, maščevalnega, superinteligentnega" robota se nam tako (še) ni treba bati, pravi sogovornik, moramo pa se zavedati pomena kakovosti in nepristranskosti vhodnih podatkov: "Temeljno vprašanje je, katerih etičnih načel se držijo ljudje, ki pripravljajo podatke in kakšni so ti podatki. Če boste algoritem 'nahranili' z besno 'Twitter razpravo', bo hitro postal fašist." Ampak za to pravzaprav ne bo kriv algoritem kot tehnološka rešitev, ampak vhodni podatki.
"AI v tem smislu človeštvu nastavlja ogledalo. Čas je, da se dobro ogledamo, saj lahko AI prinese veliko dobrega ali veliko slabega. Lahko se v tem procesu česa naučimo, preučimo človeško vedenje na nivoju, kot še nismo mogli, lahko pa vse skupaj gre v napačno smer," opozarja strokovnjak.
Kam se pritožite, ko izginejo bitcoini ali izgubite skrbništvo nad otrokom, ker je algoritem "ugotovil", da ne plačujete davkov?
V napačno smer lahko gremo tudi brez smiselne regulacije. "Veliko govorimo o tem, kako bi regulirali algoritme, premalo pa se pogovarjamo, kako algoritmi regulirajo nas. Inkorporirani so že v delovanje številnih državnih ustanov. Pravzaprav do te mere, da se spreminja osnovna družbena ureditev, izpostavljena je nekaterim zelo resnim novim tveganjem."
Ki pa se jih največji zagovorniki nekritičnega in nenadzorovanega uvajanja novih tehnologij premalo zavedajo: "Vzemimo za primer bitcoin. Ko gre nekaj narobe, ko nekdo ukrade goro bitcoinov – kdo odgovarja? Koga boste poklicali? Kdo je direktor bitcoina? Komu se boste pritožili?" In tako se znajdemo v okoliščini, ko se najbolj "zaželena lastnost" spremeni v najhujšo nočno moro – bitcoin je namreč navdušil prav zaradi oddaljenosti od klasičnega (reguliranega) bančnega sistema. "Ampak zavedati se je treba – če ni regulacije, so večja tveganja. Jasno je, da je za ljudi privlačna ideja, da se z nekimi rešitvami 'zaobide sistem'. Toda potem se moramo zavedati potencialnih posledic, pogovoriti se moramo o tveganjih. Ne moremo institucij čez noč nadomestiti z eksperimenti."
"Regulirati je treba hitrost, ne sestavnih delov avtomobila." Ter se upreti skušnjavi po nadzoru
A natančno to se dogaja, ko trenutno govorimo o regulaciji umetne inteligence, pravi sogovornik: "Nekako tako kot bi v avtomobilski industriji želeli regulirati delčke, ki sestavljajo motor, ne pa tudi omejiti največje dovoljene hitrosti. Kar pa je napačen pristop. Ljudje morajo vedeti, v kakšnem kontekstu se bo nekaj uporabljalo."
To odpira povsem novo razpravo – tisto, o družbenih normah, vrednotah, stvareh, o katerih se predvsem zahodna družba v zadnjih letih sredi iskanja ekonomskega napredka ni pogovarjala. Se bo pa morala. Še posebej zato, ker globalni kontekst trenutno kaže na vsaj tri modele rabe umetne inteligence – ameriškega, kitajskega in evropskega – in ker si z razmahom tehnologij nihče ne želi, da bi se pravila igre spreminjala ob vsakih volitvah. Če je to v nekaterih kontekstih še sprejemljivo, v primeru orodij, ki uporabljajo umetno inteligenco ni. "Živimo v sistemu, ki temelji na racionalnih odločitvah posameznikov, ampak zavedati se moramo, da v trenutku, ko je mogoče zbirati in obdelovati takšne količine podatkov, to pomeni neko novo realnost." V tej novi realnosti je treba krmariti na nove načine. Izogniti se je treba tudi nekaterim skušnjavam, meni Andersen: "Transparentnost ne sme postati kontrola. Moje osebno mnenje je, da poskusi mikromenedžiranja gradnje algoritmov niso dobra ideja, do takrat, ko bodo ugotovili, kako s takšnim pristopom regulirati obstoječo tehnologijo, se bo ta premaknila že na povsem novo raven in bo regulacija postala brezpredmetna."
Cilj mora tako postati regulacija neželenih učinkov uporabe določenih tehnologij. "Pomemben razlog, zakaj se moramo pri regulaciji pogovarjati o učinkih tehnologij, je tudi ta, da bo imel v različnih okoljih, za različne namene isti algoritem povsem različne učinke. Če torej regulirate samo 'stroj', s tem niste naredili prav veliko. Regulirati je treba, poudarjam, učinke. To v praksi pomeni, da ne 'prepovedujemo' tipov algoritmov, ampak omejujemo določene učinke algoritmov. Od sektorja moramo tudi zahtevati točnost napovedi in delovanja algoritmov." Prav tako bo morala biti zakonodaja ravno zaradi različnih učinkov zelo podrobna in dosledna: "Regulacija bo morala biti vezana na specifične industrije."
Je pa dobro, da poznamo vsaj osnove. In tako ne gledamo ponovitev "predstav", kot je bila tista ob zaslišanju šefa Facebooka Marka Zuckerberga v ameriškem kongresu, kjer je bilo precej jasno, da marsikateri politik ne pozna niti osnov problema, o katerem je bil govor. "Eden od indikatorjev je bil, da so v primeru Cambridge Analytice številni mislili, da je šlo za hekersko pridobivanje podatkov," pravi Andersen.
Ne, algoritmi ne bodo rešili vseh naših težav, tudi demokracije nam ne bodo prinesli. Imajo pa ogromno potenciala, da nam ob pravilni uporabi olajšajo življenje
Sicer pa Andersen umetne inteligence, ki jo marsikdo vidi kot "naslednjo veliko stvar", ne vidi kot "odrešenika": "Z vsemi inovativnimi tehnologijami se pojavijo zelo nerealna pričakovanja ljudi. Podobno je bilo s pojavom svetovnega spleta, ko so bili mnogi prepričani, da se bo tako razvila idealna demokracija. Ampak to se ni zgodilo. Potem so ultimativno demokratizacijo videli v družbenih omrežjih, pa je na koncu prišlo spoznanje, da FB uravnava, kdo je slišen … Demokracija se torej spet ni izboljšala. In potem je na valu razočaranja nad družbenimi omrežji sledilo navdušenje nad umetno inteligenco. Nekateri so prepričani, da nas bo rešila pred multinacionalkami in omrežji, ki naj bi vladala svetu, obvarovala pred krivico ... Ampak to ne drži."
Umetna inteligenca namreč ni čarobna paličica: "Veliko je potenciala – tako v smislu koristi kot nevarnosti." V smislu koristnega potenciala sogovornik izpostavlja opravljanje del, ki jih lahko opravijo veliko precizneje in hitreje kot človek: "Krasno je, če zna neka naprava v realnem času prevajati različne jezike, že medtem ko govoriva. Tudi avtonomne železnice niso slaba ideja ... Sistemi, ki skrbijo za boljšo pretočnost prometa, so odlični, tehnologija je izboljšala varnost v letalstvu, izboljšali so se številni procesi, ki se jih niti ne zavedamo ..."
Težava pa je potencialna zloraba te tehnologije za družbeni inženiring: "Družbenemu inženiringu smo seveda bili priča vso zgodovino človeštva, razlika je samo v učinkovitosti orodja. In kar koli AI počne, počne hitro in učinkovito." Torej tako učinkovito, kot tega ni počela v preteklosti prav nobena propaganda.
Posojilo na podlagi FB-profila ali kje so meje?
Analiza podatkov še nikoli ni bila tako učinkovita – tudi zato gre za tehnologijo, ki je zelo privlačna za bančni sektor, v katerem je "doma" naš sogovornik: "Obstajajo določeni procesi, kjer so algoritmi res zelo učinkoviti. Recimo nad transakcijami bdijo natančno kot nihče drug." Potem pa so tukaj tudi bolj "mejne uporabe": "Eden takšnih primerov, ki je vzbudil veliko pozornosti, je preverjanje prošenj za posojila s pomočjo algoritmov, ki so 'brskali' po življenju prosilca. O etiki tega ne bi razpravljal, tehnično pa to pomeni, da so preverili družbena omrežja prosilca in uporabili zbrane podatke za oceno tveganja. To se dogaja v vse več finančnih ustanovah. Čeprav večina bank še vedno deluje tako, da pristopite k bančnemu okencu, se pogovorite z uslužbencem, v ozadju poteka vse več procesov, ki na podlagi analize podatkov preverjajo posameznikovo finančno vedenje, ko gre za upravljanje z denarjem."
Na podlagi tega se oblikujejo nekatere poslovne prakse. Na primer v zavarovalništvu: "Recimo moški med 18. in 25. letom starosti že marsikje težje oziroma za višje premije sklepajo avtomobilska zavarovanja, ker veljajo za rizično skupino."
A rešitev, ki je lahko po eni strani uporabna za ponudnika zavarovanj, je lahko za uporabnike precej krivična, poudarja Andersen: "Zagotovo so tudi v tej skupini zelo odgovorni vozniki oziroma imate tudi v drugih starostnih skupinah zelo neodgovorne voznike."
Kdo prepreči, da uporaba algoritmov ljudi ne razvrsti v predale in jih omeji preko vsej razumnih meja? "To je pa dobro vprašanje, in mislim, da na to (še) nimamo odgovora. Za zdaj mislim, da se bodo te metode uporabljale, dokler bo za to poslovno povpraševanje, poslovni motiv ... In do skrajne meje, do katere bo to dopuščala zakonodaja."
KOMENTARJI (110)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.