"Presenečenj ni več," pravi prof. dr. Ivan Bratko, eden izmed utemeljiteljev in največjih strokovnjakov na področju umetne inteligence v Sloveniji, s katerim smo se pogovarjali pred začetkom letošnjega Svetovnega gospodarskega foruma. "Včasih nas je umetna inteligenca presenečala, nato pa so ta presenečenja postala tako pogosta, da smo sedaj presenečeni samo, če vidimo, da umetna inteligenca česa ne more narediti."
Ena izmed osrednjih tem letošnjega srečanja v Davosu je tudi tehnologija prihodnjega desetletja, posebni poudarek namenjajo prav umetni inteligenci. Ta bi lahko temeljno spremenila življenje na Zemlji, saj bi lahko v desetletju pred nami prodrla v skorajda vse vidike našega vsakdanjega življenja, od komunikacije, prometa do zdravstva ...
Algoritmi, ki odkrivajo raka, samovozeči avtomobili, pametne hiše. Ob tem pa tudi oglaševanje, reklame: "Za vsem tem se skrivajo tudi elementi umetne inteligence, zlasti ko ta ugotavlja, komu poslati kakšno sporočilo, ob kakšnem času, da bo imelo učinek," pripoveduje Bratko, ki pravi, da se danes metode AI uporabljajo najbolj v spletni prodaji, reklamiranju in "nenehnem spodbujanje ljudi v smeri, da te pripravijo, da nekaj kupiš".
Ste kdaj preko spletnega iskalnika Google iskali npr. potovanja v tujino, nato pa so se vam oglasi na to temo še tedne zatem pojavljali na družbenih omrežjih in drugih spletnih mestih? "V ozadju se tu ne skriva zgolj umetna inteligenca, temveč tudi druge spletne tehnologije. Ampak AI poveže skupaj vaš interes za določeno potovanje in ugotovi, kaj so za vas primerne vsebine."
Umetna inteligenca vzbuja na eni strani vznemirjenost glede prihodnosti in napredka, a obenem številni z zaskrbljenostjo zrejo v prihodnje desetletje, saj nove tehnologije sprožajo mnoge pomisleke glede pravice do zasebnosti vsakega posameznika in (prevelikega) nadzora oblasti, opozarja Svetovni gospodarski forum.
Bratko meni, da so strahovi ljudi do določene mere upravičeni. "Ta tehnologija omogoča ne zgolj marketing in prodajo, temveč tudi manipulacijo ljudi. Posameznika zmanipuliraš tako, da ustvariš neke lažne potrebe, ga pripraviš do nakupa ... Lahko pa ga usmerjaš tudi npr. pri volitvah, kar je izredno resno," meni. Kot primer omeni pretekle ameriške predsedniške volitve in brexit referendum, kjer kaže, da so bile metode umetne inteligence odločilne. "Gre za zelo daljnosežne odločitve, pri katerih je bila uporabljena manipulacija z volivci z zlorabo osebnih podatkov."
Ali še lahko verjamemo svojim očem? 'Lažne novice na steroidih', ki jih je neverjetno enostavno ustvariti
A obenem se moramo zavedati tudi pasti in nevarnosti, ki jih s seboj prinaša razvoj na področju umetne inteligence. Ob tem ne gre brez omembe t. i. deepfake tehnologije – lažnih, ponarejenih videoposnetkov, ki pa so videti neverjetno realistično. In če so tovrstni videoposnetki sprva postali priljubljeni, ko se je v različne posnetke dodajalo obraze svetovnih zvezdnikov (kar se je sprva zlorabljalo predvsem v pornografskih posnetkih), so kmalu postali veliko bolj nevarni, predvsem z vidika (že omenjenega) manipuliranja javnega mnenja. Da gre za "lažne novice na steroidih", opozarjajo nekateri strokovnjaki.
Deepfake videoposnetke je težko prepoznati kot lažne, spletne manipulacije pa so pripeljale do točke, ko številni uporabniki spleta in družbenih omrežij ne morejo več presoditi, kaj je resnično in kaj lažno; do občutka, da ne moremo več popolnoma verjeti tistemu, kaj vidimo in slišimo. Tudi tovrstna tehnologija se hitro razvija, predvsem pa postaja vse bolj enostavna in dostopna.
Morda enega najbolj znanih deepfake posnetkov so ustvarili raziskovalci z Univerze v Washingtonu, ki so z deepfake posnetkom nekdanjega ameriškega predsednika Baracka Obame poskušali pokazati, kako se tovrstna tehnologija lahko zlorablja.
Grožnjo človekovim pravicam pa po mnenju strokovnjakov predstavlja tudi tehnologija obrazne razpoznave, ki posameznika prepozna glede na njegove obrazne poteze. Raziskave v zadnjih letih, ki jih omenja Svetovni gospodarski forum, pa so pokazale, da je tovrstna tehnologija lahko pristranska oz. da deluje slabše na ženskah in posameznikih s temnejšo poltjo.
Pred dnevi je celo generalni direktor Googla Sundar Pichai opozoril, da je regulacija na področju umetne inteligence nujno potrebna, ter pozval ZDA in Evropsko unijo, da uskladijo zakonodajo na tem področju, poroča Bloomberg. Po njegovih besedah sta prav tehnologiji deepfake in obrazne razpoznave tisti, ki bi bili lahko najbolj zlorabljeni v destruktivne namene. Evropska unija naj bi sicer po napovedih v naslednjih nekaj tednih razkrila svoje zakonodajne načrte na tem področju.
Tudi o teh nevarnostih smo povprašali Bratka, ki pravi, da ga bolj kot tehnologija obrazne prepoznave skrbi aplikacija moderne inteligence za razpoznavanje čustev, ki deluje na podlagi mikroizrazov obraza – metoda, ki naj bi omogočala celo boljše razpoznavanje čustev, kot jih prepoznavamo ljudje, posebej ko oseba poskuša čustva prikriti. "Rekel bi, da ima človek pravico do svojih misli ter da jih lahko zadrži zase; to velja tudi za čustva."
Smrt demokracije?
Da se v zadnjem času pojavlja vrsta aplikacij, ki mejijo na zlorabe, meni tudi Bratko, ki ob tem omeni mikrotargeting. "Gre za metode, kako vplivati na človeka, vplivati na njegovo mnenje, npr. da se udeleži ali pa ne gre na volitve. To lahko popolnoma spremeni izid volitev."
"Tega se resnično bojim," priznava. Nevarnosti se je po lastnih besedah začel zavedati že pred približno sedmimi leti. "S strokovnjaki za umetno inteligenco z vsega sveta smo bili na nekem manjšem srečanju. Na večerji smo si rekli, 'zdaj pa to ni več hec'. Kar smo mi nekdaj delali z velikim entuziazmom, se zdaj lahko zlorablja na različne načine. Od takrat me skrbi, da lahko to pripelje do konca demokracije." Pravi, da več ko izvemo npr. o ameriških volitvah, bolj se lahko sprašujemo.
Pri preprečevanju zlorab je, tudi na področju umetne inteligence, ključna zakonodaja in regulacija. "Do sedaj smo ugotovili, da so možnosti tovrstnih zlorab brez interneta in brez zbiranja osebnih podatkov zelo omejene. Treba bi bilo radikalno omejiti zbiranje osebnih podatkov," pravi Bratko in dodaja, da je bila zakonodaja GDPR prava ideja, ki pa je po njegovih besedah neučinkovita, saj temelji na soglasju. "Ni dovolj, da daš soglasje – to je bolj ali manj izsiljeno. Ljudje so naivni, pa tudi dejansko nimajo časa, da preberejo zapletene pogoje soglasja. Mislim, da bi bilo treba enostavno prepovedati zbiranje določenih podatkov."
Poleg 'smrti demokracije' Bratka skrbi tudi uporaba umetne inteligence v vojaške namene, predvsem za avtonomna orožja. Tovrstno nevarnost je v kratkem dokumentarnem filmu Slaughterbots že pred leti predstavil Stuart Russell, strokovnjak na področju umetne inteligence z Univerze Berkeley, o nevarnostih pa se je Bratko z njim pogovarjal na že omenjeni konferenci. V filmu Russell prikaže, kako bi bil videti napad pol milijona majhnih dronov v velikosti dlani. "En tak dron lahko nosi en naboj. Russell takrat ni bil prepričan, ali je to mogoče izvesti, nato pa je lansko poletje izvedel, da je švicarsko vojska izvedla poskus, kot ga je prikazal v dokumentarnem filmu, in ugotovila, da je to absolutno mogoče izvesti."
"Imamo drone, ki se sami, zelo na grobo, odločajo, koga bodo napadli. Na primer, imajo navodila (kot je prikazano v dokumentarnem filmu), da je treba odstraniti vse tiste, ki so npr. podobni določenim članom ameriškega kongresa. In to je dovolj za strojno učenje, kakšne lastnosti imajo ti člani. Droni lahko tako napadejo mesto in avtomatično izberejo, kateri posamezniki so primerni za to, da se jih odstrani."
"Predstavljajte si majhen dron, ki ga kot igračo lahko kupi vsak otrok. Dodamo nekaj umetne inteligence – možnosti terorizma so neverjetne," pravi Bratko.
Ob vse hitrejšem (in skorajda nenadzorovanem) nadzoru tehnologije se tako porajajo etična vprašanja, kje in kdo bo začrtal etične meje tehnološkega napredka, na katera poskušajo odgovoriti razpravljavci v Davosu. Ali zgolj zato, ker nekaj lahko naredimo, bi to tudi morali storiti? Vrstijo se pozivi vladam k oblikovanju ustreznih zakonodajnih okvirjev na tem področju – kar pa že samo po sebi predstavlja izziv, saj se sami strokovnjaki na tem področju stežka zedinijo, kakšen nadzor bi bil potreben, obenem pa mnogi svarijo pred preostrimi in prenaglimi odločitvami na zakonodajnem področju.
Umetna inteligenca, ki odkriva raka
A če se v zadnjih letih vse pogosteje in vse bolj govori ter opozarja na pasti in nevarnosti, ki jih s seboj prinaša tehnološki napredek in razvoj na področju umetne inteligence, moramo ob tem poudariti, da sta s seboj prinesla tudi mnoge pozitivne posledice, ki so po besedah Bratka "veliko manj problematične". Kot 'klasične primere uporabe umetne inteligence dandanes navede področje robotike, logistike in predvsem znanosti: "Gre za uporabo strojnega učenja, v interpretaciji eksperimentalnih podatkov, ki so pridobljeni v znanstvenih raziskavah. Kar je moral včasih znanstvenih sam s svojo kreativnostjo razbrati v podatkih, zdaj opravi umetna inteligenca. Nekdaj so za to uporabljali statistične metode, zdaj pa počasi prevladujejo metode strojnega učenja, ki so veliko bolj raznovrstne in učinkovite."
Dober primer pozitivnih učinkov umetne inteligence je v zdravstvu. Na primer z umetno inteligenco lahko avtomatsko odkrivamo kožnega raka, z analizo govora posameznika lahko prepozna, ali trpi za parkinsonovo boleznijo, zmožna je predvideti izbruhe bolezni – algoritem je tako na primer napovedal zadnjih izbruh ebole devet dni, preden ga je oznanila Svetovna zdravstvena organizacija.
Bratko sicer dvomi, da bo umetna inteligenca nadomestila osebnega zdravnika: "Po dosedanjih izkušnjah bi bila najbolj učinkovita kombinacija zdravnika in umetne inteligence, oziroma zdravnika, ki si pomaga z AI kot orodjem za večjo učinkovitost. Še vedno pa ima zdravnik boljše splošno razumevanje, ima tudi znanje, ki ni zgolj strogo medicinsko."
Poplave, orkani, požari in druge naravne katastrofe ogrožajo vsaj 160 milijonov ljudi, naravne katastrofe pa se pojavljajo štirikrat pogosteje kot leta 1970, kažejo podatki s spletne strani Svetovnega gospodarskega foruma. V prihodnjem desetletju pa se bo stanje le še poslabšalo. In tudi tu lahko na pomoč priskoči umetna inteligenca. Z njeno pomočjo bi se namreč lahko hitreje odzivali in izboljšali učinkovitost pri dostavi humanitarne pomoči.
S pomočjo vremenskih podatkov in informacij preteklih podobnih nesreč bi tako na primer ob oblikovanju orkana lahko s pomočjo umetne inteligence predvideli, koliko ljudi bo nesreča prizadela, s tem pa pomagali tudi pri določanju, koliko humanitarne pomoči bo potrebne. S pomočjo satelitskih posnetkov bi algoritmi lahko ocenili obseg škode, umetna inteligenca bi z analizo objav na družbenih omrežjih zagotovila tudi takojšnje informacije o povzročeni škodi na zgradbah, cestnih povezavah, s tem pa reševalnih ekipam pomagala tudi pri dostavi pomoči.
Bodo roboti prevzeli oblast?
A mnogi ob terminu umetna inteligenca pomislijo na popularne filme, kot so Jaz, Robot, Matrica ali Terminator – zaradi česar se, malo za šalo, malo za res, zastavlja vprašanje, ali bi lahko roboti nekoč prevzeli oblast? Bratko odgovarja, da "to nikoli ni bilo resno vprašanje med strokovnjaki". Omeni pa drugo nevarnost, ki je po njegovih besedah "neke vrste prevzem oblasti po mehki, legalni poti". "Umetna inteligenca ne potrebuje vojske robotov, da prevzame oblast. Dovolj je, da izbere ljudi, ki se dajo manipulirati, izbere vodljive politike, ki jih potem vodi. In de facto ta umetna inteligenca prevzame oblast, ki je sicer formalno še vedno v rokah ljudi."
Preberite še:
- S pomočjo umetne inteligence računalniki razumejo in sestavljajo besedila v slovenščini
- AI nastavlja ogledalo: Če algoritem 'nahranimo z besno Twitter debato', dobimo fašista
- Plastični paradoks: brez materiala, ki duši svet, si težko predstavljamo življenje
- Dvoličnost? Kako bo 'generacija enega klika' ohromila in onesnažila mesta
- 'Preobrazba' kapitalizma: namesto delničarjev v središču skupnost?
- Boj za okolje med aktivizmom in realnostjo: 'Rudarji, naučite se programirati'
KOMENTARJI (88)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.