"Potrebnih bo samo nekaj velikih prevar, ki bodo resnično prepričale javnost, da nič ni resnično." (Aviv Ovadya)
Verjetno bo slovenski prevod šel v smeri npr. "globôki ponaredki", "globôke (lažne) novice" ali kaj podobnega, glede na to, da temelji "deepfake tehnologija" na globôkem učenju, ki ga slovar opredeli kot pristop k strojnemu učenju z modeliranjem hierarhične strukture podatkov, ki navadno sloni na uporabi večslojnih nevronskih mrež. Gre torej za tehnologijo oz. kar medij, ki omogoča audio-vizualno manipulacijo obstoječih videov (tudi v realnem času), kakor je npr. znameniti video, v katerem Bill Hader impresionira Toma Cruisa, pri čemer se Billov obraz postopoma spremeni v Tomovega. Primerov zlorabe oz. uporabe te tehnologije je do danes že kar nekaj – med "žrtvami" pa so tudi aktualni predsednik ZDA, Donald Trump, za katerega ni treba posebej poudarjati, da ima že kar nekaj t. i. "deepfake videov", ustvarjenih na lasten račun in na račun političnih nasprotnikov, kakor je predsednica predstavniškega doma kongresa Nancy Pelosi. "Deepfake" videom se ni izognil niti nekdanji predsednik ZDA, Barrack Obama, ali pa tehnološki milijarder Mark Zuckerberg, ki je še posebej ironičen primer, glede na to, da je ravno vzpon spletnih socialnih medijev prispeval levji delež v procesu nastanka tovrstne tehnologije in načina njenega prodora v širšo družbo. Zaskrbljujoče je tudi, da se spletni socialni mediji niti ne zavedajo, kaj s tovrstno tehnologijo manipulacije prihaja.
Hitrost razvoja je prehitela hitrost učenja in razumevanja
Vse skupaj se je začelo z objavo članka na spletnem mediju Vice, ki razkriva uporabo algoritma, s katerim je Reddit uporabnik z imenom deepfakes zamenjal obraz porno igralke z obrazom Gal Gadot, zvezdnice filma Wonder Woman. Da, začelo se je s pornografijo in spolnostjo, kar nas niti ne sme presenetiti, saj bomo verjetno precejšen del tehnološkega napredka na področjih, kot so robotika, umetna inteligenca ipd., dosegli ravno zaradi čedalje intenzivnejših seksualnih oz. spolnih potreb družbe, kar lahko pripišemo razmahu pornografije v zadnjih 50 letih, predvsem na račun razvoja IKT tehnologije. Prav tako ni skrivnost, da gre napredek v smeri večje podobnosti s človekom, tako fizične kot umske. Ravno v tem stremenju za resničnostjo tehnologije se skriva še en izziv, saj bo prepoznava "deepfake" ponaredkov čedalje bolj otežena, medtem ko bodo možnosti za uspešno manipulacijo percepcije čedalje višje.
V januarju 2018 je Vice objavil nov članek na to temo, Reddit uporabnik deepfakes pa je medtem nabral več kot 15.000 naročnikov, beseda "deepfake" pa je postajala čedalje bolj trendovska. Neki drug Reddit uporabnik je v tem času razvil aplikacijo, s katero so lahko uporabniki na spletu brez računalniškega znanja ustvarjali "deepfake" vsebine. Sledile so bolj napredne aplikacije, temelječe na uporabniški izkušnji (ang. customer experience ali CX), s čimer je bil, če smo iskreni, izpolnjen najbolj pomemben pogoj za kateri koli digitalni pripomoček – to je uporabniška izkušnja, ki, morda tudi zaradi pomanjkanja računalniške pismenosti pri uporabnikih, zavzema višje mesto kot varnost. Orodja za masovno manipulacijo in generiranje ponarejenih video vsebin so bila torej nared za povprečne uporabnike interneta pred manj kot dvema letoma. Razvoj tehnologije "deepfake" se je torej začel v internetnih skupnostih, kot je Reddit. A hkrati je razvoj te tehnologije potekal tudi v akademskih institucijah, konkretno na področju računalniškega vida (ang. computer vision), ki je podpodročje računalniške znanosti (ang. computer science).
Leta 1997 je bil ustvarjen program Video Rewrite, ki je omogočal spremembo glasu osebe v videu z glasom osebe z drugega zvočnega posnetka. Takšne primere smo pogosto lahko gledali v različnih akcijskih filmih iz Hollywooda. Danes pa v filmih najdemo ravno primere uporabe tehnologije "deepfake", s katero akterji spreminjajo percepcijo ciljnega občinstva. Zanimivo, kako tovrstna tehnologija audiovizualne manipulacije ves čas pronica skozi medijsko industrijo, a več o tem v nadaljevanju. Akademska skupnost je ves čas fokus usmerjala v projekte, ki so omogočali ustvarjanje čedalje bolj realističnih videov ter seveda samo izboljšavo tehnologije. Kakor z vso preostalo (digitalno) tehnologijo je bilo tudi v tem primeru samo vprašanje časa, kdaj bo tehnologijo pričela uporabljati poleg filmske/produkcijske še preostala industrija. Številna (digitalna) podjetja za uporabo aplikacij, ki omogočajo ustvarjanje "deepfakov", ne zaračunavajo ničesar, torej ne ustvarjajo direktnega finančnega prihodka, temveč ga neizbežno ustvarjajo z zbiranjem uporabnikovih osebnih podatkov, na čemer vsaj za zdaj temelji velik del digitalne ekonomije. Tovrstne aplikacije, ki so (bile) dostopne brezplačno v spletnih trgovinah, kot sta App store in Google Play, so postale viralne in povzročile takojšen odziv v kontekstu zaščite zasebnosti, v katero uporaba tovrstne tehnologije na nepremišljen ali zlonameren način tako grobo posega. Takšne primere lahko najdemo po vsem svetu – v ZDA, Evropi, tudi na Kitajskem in v Rusiji.
Hudič je v podrobnostih
Vzpon "deepfake" tehnologije lahko označimo za globalni problem, kakor podnebne spremembe, ki pa jih za spremembo dejansko lahko merimo in do neke mere predvidimo, saj so dolgotrajen pojav, o katerem imamo že kar precej informacij. Tehnologija "deepfake" pa je tako nova, da preprosto ni mogoče oceniti, kako prevladujoča je in kako hitro se razvija ter kakšne vplive na družbo s seboj prinaša. A zakaj dejansko je problem? Marsikdo bi namreč lahko rekel, da je tehnologija samo še eden izmed načinov profitiranja v medijski industriji oz. kar bolje, digitalni ekonomiji. A problem je (lahko) precej resnejši. Tehnologija je v obdobju manj kot dveh let napredovala od algoritma, ki omogoča preprosto, a vizualno prepričljivo zamenjavo obraza in/ali zvoka, do tega, da lahko v točno določenih okoliščinah in stanju ciljne publike že povzroči masovno manipulacijo, in to v realnem času. Zamislimo si scenarij v letu 2020, ko interesna skupina ali celo že posameznik ustvari "deepfake" video z izredno vznemirljivo vsebino in ga zahvaljujoč čedalje bolj dostopnejši podatkovni analitiki (ki po Cambridge Analytici postaja prava industrija) v dovolj dobrih pogojih objavi po točno določenih kanalih digitalne komunikacije. V zelo kratkem času bi takšen video postal viralen in bi lahko, odvisno od vsebine, povzročil precejšnjo materialno in gospodarsko škodo, v najslabših primerih tudi človeške žrtve.
Članek v branju se prične z izjavo Aviva Ovadye, ki nosi precejšnjo težo, saj izpostavlja nevarnost "deepfake" videov zaradi senzacionalizma in čedalje boljše prepričljivosti tehnologije, kar daje moč tovrstnim novicam ter informacijam in pogosto ustvarja žrtve, ki so praktično za vedno stigmatizirane, saj je treba vedeti, da informacije pogosto za vedno v neki obliki oz. formatu ostanejo na spletu. Največja nevarnost in hkrati največji potencial tehnologije je, da lahko prepriča ljudi – in ljudje, ki so v nekaj prepričani, lahko hitro postanejo soudeleženi v ustvarjanju razmer, ki lahko imajo hude socialne posledice.
IT strokovnjaki, ki so iskreni sami s seboj, bodo priznali, da je masovno adaptacijo tehnologije s strani širše družbe nemogoče ustaviti in spet se moramo zateči k reakcijskim ukrepom v kontekstu zakonodajnih in regulativnih okvirov, a to nikakor ne bo zadoščalo. Investirati in raziskovati bo treba tehnologije, s katerimi bo mogoče uspešno blažiti negativne posledice, ki jih s seboj prinašajo tehnologije, kakor je "deepfake" tehnologija. Konkretno se potencial kaže v tehnološkem raziskovanju in razvoju unikatne digitalne identitete posameznika, ki bi v naraščajočem digitalnem kaosu lahko ločila resnično od lažno ustvarjenega in tudi v tehnologiji veriženja podatkovnih blokov (ang. blockchain). Potrebna je infrastruktura, s katero bo mogoče vzpostaviti model prevzemanja odgovornosti. Ena izmed potencialnih rešitev so tudi t. i. povratne zanke, ki omogočajo izboljšave sistemov, namenjenih preventivnim ukrepom (ang. feedback loop).
Od reakcijskih do preventivnih ukrepov
Tudi tokrat je na mestu poziv državi, ki pa mora tokrat poleg vzpostavitve zakonodajnih in regulativnih okvirov, bodisi sama ali v nadnacionalnem sodelovanju, vzpostaviti oz. zahtevati vzpostavitev dialoga s spletnimi in drugimi socialnimi mediji v zvezi s problematiko "deepfake", o kateri se podjetja Facebook, Google, Twitter in spletni portali, kot je Reddit, niti ne želijo pogovarjati. Razlog je seveda odgovornost, ki se je vsi po vrsti izogibajo. Država mora zahtevati prevzemanje odgovornosti, saj bodo s tem podjetja prisiljena v razvoj in investicije preventivnih ukrepov, s katerimi bo mogoče zaščititi družbo in državljane pred poskusi dezinformiranja. Vprašati se moramo, kaj se bo zgodilo ob naraščajočem številu ljudi, ki ne bodo zaupali informacijam, ki so jim podane na vsakodnevni ravni ali ko ne bodo zaupali temu, kar prihaja v kontekstu splošnega napredka in blaginje?
KOMENTARJI (55)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.