Pojavili so se videoposnetki verodostojnih televizijskih zdravnikov, ki oglašujejo nepreizkušene "naravne" sirupe za sladkorno bolezen, ob tem pa trdijo, da lahko dejansko peroralno zdravilo za zdravljenje sladkorne bolezni metformin celo "ubije" bolnike. Družbena omrežja, kot sta Facebook in Instagram, so preplavili tovrstni lažnivi posnetki, poroča France 24.
Strokovnjaki opozarjajo, da lahko tovrstni globoki ponaredki ("deepfake" posnetki) ogrozijo življenja ljudi, zlasti zato, ker uporabljajo podobe priljubljenih zdravstvenih strokovnjakov. Med slednjimi se je znašla tudi lažna podoba britanskega televizijskega voditelja Michaela Mosleyja, ki je poleti umrl.
"Zdi se, da ljudje tem videoposnetkom resnično zaupajo," pravi britanski zdravnik John Cormack, ki dodaja, da so tovrstni slavni zdravniki porabili veliko časa, da so si ustvarili verodostojnost. "Zato jim ljudje verjamejo, četudi v teh lažnih posnetkih izrečejo nelogične trditve," pojasnjuje Cormack, ki je sodeloval z British Medical Journal.
'Razcvet globokih ponaredkov zdravnikov'
Strokovnjak za umetno inteligenco Henry Ajder medtem dodaja, da so deepfake posnetki zdravnikov prav letos dosegli svoj "razcvet". Videoposnetki z umetno inteligenco običajno ciljajo na starejše občinstvo, ki ni tako vešče moderne tehnologije in ki morda bolj zaupa zdravnikom, ki se redno pojavljajo na televiziji.
Francoski zdravnik Michel Cymes, ki se pogosto pojavlja na televiziji v Franciji, je za francosko tiskovno agencijo AFP maja povedal, da je proti podjetju Meta sprožil pravni postopek zaradi prevar z uporabo njegove podobe.
Britanski zdravnik Hilary Jones pa je celo najel preiskovalca, da bi izsledil globoke ponaredke, ki prikazujejo njegovo podobo. Na enem od takšnih posnetkov je namreč podoba Jonesa, ki v britanski televizijski oddaji, v kateri se redno pojavlja, prodaja nepreverjeno zdravilo za visok krvni tlak ter bombone s konopljo. "Četudi jih odstranijo, se že naslednji dan pojavijo novi," je dejal britanski zdravnik.
Nedavni napredek na področju umetne inteligence je naredil kakovost ponarejenih fotografij, zvoka in videoposnetkov še veliko bolj prepričljivo, ob tem dodaja francoski akademik in strokovnjak za umetno inteligenco Frederic Jurie. "Dostop imamo do več deset milijard fotografij in sposobni smo zgraditi algoritme, ki lahko priredijo vse, kar se na teh slikah pojavi," poudarja.
Tarče postale tudi številne kontroverzne zdravstvene osebe
Ne zlorabljajo pa se samo podobe splošno cenjenih zdravnikov. Ajder ni presenečen, da so žrtve globokih ponaredkov tudi številne kontroverzne zdravstvene osebe. "Ljudje v neortodoksnih ali zarotniških krogih jim zelo zaupajo," pravi.
Na podoben način so namreč priredili nastop kontroverznega francoskega raziskovalca Didierja Raoulta, ki je bil obtožen širjenja zavajajočih informacij o zdravilih za covid-19.
V enem od lažnivih posnetkov nastopa tudi avstralska naturopatinja Barbara O'Neill, ki je bila zaradi trditve, da lahko soda bikarbona zdravi raka, deležna ostrih obsodb. Tokrat je v globokem ponaredku na platformi TikTok prikazana, kako prodaja tablete, ki "čistijo krvne žile". Nekateri posnetki medtem trdijo celo, da je O'Neillova umrla zaradi čudežnega olja, ki ga prodajajo na Amazonu.
Njen mož Michael O'Neill je komentiral pojav posnetka. Žal mu je, da "številni neetični ljudje" ime njegove žene izrabljajo za prodajo izdelkov, ki jih ona ne priporoča, včasih pa celo za neposredne in odkrite prevare ljudi.
Strokovnjaki niso optimistični glede novih orodij, ki naj bi se bojevala proti globokim ponaredkom. Menijo pa, da bi se morali osredotočiti predvsem na tehnologijo, ki lahko zagotovi, da vsebina ni bila spremenjena. Primer takšnega so digitalni podpisi, ki služijo kot nekakšno potrdilo, meni Jurie.
KOMENTARJI (11)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.