Center naj bi bil ustanovljen na začetku prihodnjega leta, ustanova pa naj bi služila tudi kot model za podobne centre po svetu.
Center se bo ukvarjal z reševanjem globalnih izzivov, ko gre za AI, podpiral bo Unesco pri študijah in sodeloval pri večjih mednarodnih projektih s področja AI. Sem sodi tudi svetovanje o sistemskih in strateških rešitvah pri uvajanju umetne inteligence na različnih področjih.
Dela strokovnjakom na tem področju ne bo zmanjkalo tako hitro, saj je odprtih ogromno vprašanj, smo pred dnevi slišali na konferenci Soobstoj z umetno inteligenco: vizija Družbe 5.0, ki jo je pripravil Zavod 14. Predvsem ko gre za regulacijo področja in vprašanje, kje bomo AI postavili meje.
Število napak se je drastično zmanjšalo, a v številnih primerih to ni dovolj, saj so napake nesprejemljive
"V zadnjem desetletju je bil na področju globokega učenja dosežen velik preboj. Če je bilo še leta 2010 po takšnem učenju število napak, ki jih je storil algoritem, okoli 25 odstotkov, se je število napak do leta 2016 zmanjšalo na le še okoli dva odstotka," je poudaril dr. Ivan Bratko z ljubljanske fakultete za računalništvo in informatiko.
A napredek ima svojo ceno. "Globoko učenje je pristop k strojnemu učenju, ki temelji na umetnih nevronskih mrežah. Daje najboljše rezultate. Vendar se je povečalo število slojev, in več kot je slojev, težje je sistem razumljiv. Po drugi strani pa se je z večjim številom slojev zmanjšalo število napak." Umetne nevronske mreže so torej postale kompleksne do točke, ko jih je nemogoče razumeti. "Postajajo črne škatle, kjer uporabnik ne ve, kako je sistem iz podatkov ustvaril rezultate," je pojasnil Bratko. Kar je v nasprotju z enim od ciljev evropske strategije za umetno inteligenco, ki predvideva zaupanja vredno AI, ki temelji na principu "transparentne škatle".
AI je sicer precej pri vrhu interesov nove Evropske komisije. Šefica Ursula von der Leyen je že pred časom obljubila, da bo v prvih 100 dneh svoje komisije pripravila zakonodajo, ki bo vsebovala "evropski pristop" k AI. Ta naj bi v ospredje postavljal človeka in etične standarde. Kar je povezano tudi z željo po transparentnosti. Ta je pogosto ključna, poudarja Bratko: "Na primer pri medicinski diagnozi in sprejemanju odločitev o najboljšem zdravljenju. Pacient tukaj zagotovo želi vedeti, kako je sistem postavil diagnozo, na podlagi česa je predlagal zdravljenje. Podobno moramo to vedeti, če želimo tehnologijo uporabljati pri zaposlovanju, v pravosodju, finančnih storitvah – na primer za odobritev posojila, zavarovanja …"
Tudi ko človek in robot tesno sodelujeta, "črna škatla" ni sprejemljiva, nadaljuje Bratko: "V takšni situaciji moramo vedeti, kaj in zakaj počne robot."
Prav tako je napake mogoče odpraviti samo, če vemo, kako je sistem prišel do rešitve. "Strojno učenje je v zadnjih letih res napredovalo, a še vedno občasno producira povsem nerazumljive napake, ki so na prvi pogled smešne – če pogledamo podrobneje, pa seveda ne." Še posebej postanejo zelo resne, če pomislimo, da bi se takšne napake zgodile med uporabo v realnem svetu.
Med primeri Bratko izpostavlja primer, ko se je sistem naučil prepoznati medvedka pando. Potem pa so dodali "manjšo motnjo", ki človeškega očesa ne bi veliko zmotila. Drugače je sprememba vplivala na sistem, ki je zdaj trdil, da je na fotografiji skoraj zagotovo – opica. Podobno se je sistemu zgodilo na primeru šolskega avtobusa. Je pa sistem na primer kot šolski avtobus "prepoznal" sistem črt v podobnih barvnih odtenkih. Pa čeprav na tej fotografiji ni bilo ne koles ne oken ali ogledal – nekaterih osnovnih značilnosti avtobusa. In še bolj zaskrbljujoč primer? "Sistem je stop znak prepoznal kot znak, ki predvideva omejitev hitrosti na 70 km/h. Avtonomno vozilo s takšnim sistemom se ne bi ustavilo, ampak pospešilo."
Takšne napake so redke, šlo je tudi za primere, ko so poskusili sistem namerno pretentati, razlaga Bratko: "Se pa pojavi vprašanje, ali je takšna tehnologija resnično varna, kako enostavno jo je prelisičiti ali zlorabiti." Pri avtonomnih vozilih so takšne napake enostavno nesprejemljive, je jasen Bratko, težava je tudi, ker takšne napake vzbujajo strah med ljudmi.
Umetna inteligenca se zelo razlikuje od človeške, še dodaja Bratko – najbolj očitna je sposobnost uporabe "zdrave pameti", ki je za človeka samoumevna, za računalnik pa še nepremostljiv izziv.
"Naše vedenje pogosto ni v skladu z etičnimi principi"
"Umetna inteligenca izziva človekovo dojemanje sebe – tudi kot univerzalnega racionalnega misleca," pa je prepričan Paul Kuyer z dublinske City University. "Navajeni smo, da smo tisti, ki sprejemamo odločitve. Zdaj pa imamo AI, ki lahko prav tako sprejema odločitve in vpliva na naše odločitve," nadaljuje. Zato vprašanje etične AI prihaja v ospredje.
Da je etika pomemben del razprave in regulacije, ko gre za AI, se strinja tudi psiholog dr. Janek Musek: "Etika je pomembna v vseh aspektih našega življenja. Vsa velika družbena, osebna in profesionalna tveganja so posledica razkoraka med etičnimi principi in etičnim vedenjem na eni strani ter našim dejanskim vedenjem na drugi strani. Naše vedenje pogosto ni v skladu z etičnimi principi."
AI pa etična vprašanja postavlja v povsem novo luč, na novo raven, meni Musek: "Gre za najmočnejše orodje, ki ga je v svoji zgodovini razvilo človeštvo. Koristi AI je mogoče primerjati z drugimi orodji, škodljive posledice pa so multiplicirane."
"Moč ojačevanja določenega dela sporočila je enostavno prevelika, da bi bila neregulirana" – ali kako YouTube širi teorije zarot
Na moč teh orodij opozarja tudi dr. Aljaž Košmerlj z Instituta Jožef Stefan. Kot razlaga, so sicer AI algoritmi, ki se uporabljajo danes, še zelo preprosti – v smislu, da opravljajo zgolj eno nalogo – morda res z nadčloveško učinkovitostjo, ampak še vedno gre za samo eno nalogo.
Vendar pa že v tej obliki platformam, ki jih uporabljajo, omogočajo, da okrepijo določen aspekt sporočila, pri čemer pa za posledice ne želijo biti odgovorne. "Mislim pa, da bodo regulatorji kmalu prepoznali, da je ta moč vendarle prevelika, da bi lahko ostala neregulirana."
"Zelo pomembno je, da je jasno določeno, kaj se z določenim algoritmom optimizira," poudarja Košmerlj. In ta debata je pomembna že zdaj. "Precej prahu je vzbudil sistem optimizacije vsebin, ki ga uporablja YouTube – in je seveda namenjen temu, da podaljša čas, ki ga uporabnik preživi ob gledanju videov. Naloga sistema je, da vam z naslednjim predlaganim posnetkom ponudi vsebino, ki ji ne morete reči ne. Pa čeprav morate jesti, spati, se pogovarjati z otrokom, vseeno kliknete. S poslovnega vidika je stvar jasna – YouTube želi, da si ogledate naslednji posnetek, ker bo tudi tam oglas. Ampak algoritem se je naučil, da obstajajo določene vsebine, ki so še posebej dobre za zadrževanje uporabnika – in ena takšnih vsebin so teorije zarote – vse od ploščate Zemlje do prepričanja, da so nekateri ljudje v resnici kuščarji. To pomeni, da sistem aktivno promovira takšne vsebine. Neodvisni raziskovalci so raziskovali, kako enostavno je 'pasti' v te teme. Takšne lastnosti algoritmov moramo upoštevati. Ne moremo ravno zameriti YouTubu, ker želi čim boljše poslovne rezultate, ampak to lahko ustvari posledice, ki si jih kot družba ne želimo – med drugim razmah teorij zarote. Moč ojačevanja, ki jo imajo te platforme, je nekaj, kar mora urediti regulacija."
Konec demokracije? "Imamo oprane možgane in živimo v idiokraciji"
Posledice možnosti ojačevanja sporočil smo v preteklosti že videli – tudi ko je šlo za škandal Cambridge Analytica ali brexit, opozarja antropolog Dan Podjed. "Vsi imamo oprane možgane, zato je na pohodu nov politični sistem – idiokracija. Živimo v idiokraciji, glasujemo za politike, ki nam perejo možgane. In kako se to dogaja – na spletu rešujemo 'nepomembne' kvize, podjetja pa zbirajo podatke in na tej osnovi ustvarjajo psihološke profile, na podlagi česar nato vedo, kako specifičnemu uporabniku poslati targetirano sporočilo, da bo učinkovito."
Podjed je ob tem kot primer izpostavil invazijo targetiranih lažnih novic pred zadnjimi ameriškimi predsedniškimi volitvami: "Tudi z 'novicami', ki naj bi dokazovale, da ima Hillary Clinton sifilis ali Parkinsonovo bolezen. In mi temu verjamemo! To je strašljivo! Glasujemo za ljudi na podlagi takšnih podatkov. To je lahko konec demokracije, kot jo poznamo, če nismo več zmožni racionalnih odločitev. Skrajni čas je, da temu rečemo ne in algoritmom preprečimo, da nas targetirajo – pa naj bo to z namenom nekaj kupiti ali za nekoga glasovati."
Laganje je postalo sprejemljivo. Zdaj plačujemo ceno
Način targetiranja, kjer sistem prepozna dovzetne posameznike in nato z jasno dodelanimi sporočili krepi njihova prepričanja, je precej strašljiv, se strinjajo strokovnjaki, a po drugi strani gre za novo manifestacijo starega problema, ki ga bo treba znova obvladati.
"Zakonodaja, ki omejuje manipulativno politično propagando, ni neznanka," je dejal Košmerlj. Včasih so sankcionirali posameznike, ki so manipulativna sporočila kričali sredi trga. Srž problema je po njegovem drugod: "Zdaj napadamo algoritme. Seveda je slabo, da se na ta način širijo laži. Ampak javnost se veliko premalo razburja, ko gre za druge laži. Očitno smo kar sprejeli, da je v marketingu laganje do določene meje povsem sprejemljivo. Ljudje lahko v množičnih medijih rečejo kar koli. V oglasih se brez težav pojavlja igralec, ki trdi, da je zdravnik – pa nikogar ne moti. Drži – AI orodja so 'super močna', treba jih je regulirati, ampak poglejmo širšo sliko, kakšna je realnost naše družbe, kaj zastopamo, da se s temi orodji zgolj potencira."
Ključno je, na podlagi kakšnih podatkov operira AI. Ali ko AI zaposli samo moške
"Ko bo AI sprejemala pomembne odločitve, je pomembno, da so prave," poudarja Kuyer. Eden ključnih pogojev za to pa sta kakovost in nepristranskost podatkov, s katerimi pri sprejemanju odločitev operira AI.
Področje, ki se je do zdaj izkazalo za precej vprašljivo. V "realnem svetu" so ljudje danes pogosto prepričani, da so obstoječi sistemi pristranski – da na primer nekdo ni dobil službe, ker je ženska, ne moški, da nekdo ni dobil pogojnega izpusta, ker ni bel, ampak temnopolt.
Prepričanje, da bodo takšno težavo rešili algoritmi, je ravno zaradi možnosti pristranskih vhodnih podatkov nerealno. "Poglejmo primer Amazona," pravi Kuyer. "Tam so imeli AI-sistem, ki je preverjal življenjepise razvijalcev programske opreme, na podlagi tega pa naj bi nato izbrali bodoče kadre. Kaj se je zgodilo? AI, ki je preverjala podatke, je takoj izločila in zavrnila vse ženske. Izkazalo se je, da se je AI na podlagi vhodnih podatkov naučila, da so programerji praviloma moški in na podlagi tega 'spoznanja' zavrnila vse ženske. Pri Amazonu so zato s prijav zbrisali kategorijo spola. In kaj je storil algoritem? Naučil se je iskati besede, ki jih praviloma v prošnjah uporabljajo moški in izbirati na tej podlagi – spet moške. To je precej zgovoren primer, ki kaže na to, da je AI zmožna sprejemati zelo neetične odločitve, če nismo pozorni na to, kaj počne."
Izobraziti se moramo!
Da bo lahko tudi laična javnost vsaj do neke mere razumela tehnologijo in jo nekaj velikih gigantov ne bo žejno peljalo čez vodo, bodo potrebne tudi spremembe v izobraževalnem sistemu, je poudaril Košmerlj.
Boljše znanje o delovanju algoritmov namreč po mnenju strokovnjaka pomeni tudi določeno odpornost posameznikov in družbe na nekatere manj zaželene učinke tovrstne tehnologije: "Družba se bo prilagodila, kot se je že večkrat. Se je pa marsikateri težavi mogoče izogniti z izobraževanjem."
JUTRI preberite pogovor z danskim strokovnjakom Jonasom Valbjornom Andersenom z IT Univerze v Köbenhavnu. Pogovarjali smo se o najboljših načinih regulacije AI in nekaterih praktičnih primerih uporabe AI – tudi o primerih, ko AI odloča o kreditni sposobnosti posameznikov.
KOMENTARJI (75)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.