Izjavo z opozorilom so objavili na spletni strani Centra za varnost umetne inteligence, podprlo pa jo je tudi na desetine drugih strokovnjakov. "Zmanjšanje tveganja izumrtja človeštva zaradi umetne inteligence bi moralo biti poleg drugih družbenih tveganj, kot so pandemije in jedrska vojna, prednostna naloga," je zapisano.
Sam Altman, izvršni direktor izdelovalca ChatGPT-ja OpenAI, Demis Hassabis, izvršni direktor Google DeepMind, in Dario Amodei iz Anthropic so vsi podprli izjavo.
Za opozorilom stojijo tudi "botri umetne inteligence"
Poziv Centra za varnost umetne inteligence je podprl tudi dr. Geoffrey Hinton, ki je v preteklosti tudi sam izdal opozorila o tveganjih, ki jih prinaša superinteligentna umetna inteligenca. Pod izjavo pa se je podpisal tudi Yoshua Bengio, profesor računalništva na univerzi v Montrealu.
Tako Hinton kot tudi profesor Bengio in profesor Yann LeCun iz NYU so zaradi svojega revolucionarnega dela na tem področju pogosto opisani kot "botri umetne inteligence". Med drugim so leta 2018 skupaj prejeli Turingovo nagrado, ki priznava izjemne prispevke v računalništvu.
A nekateri drugi pravijo, da so strahovi pred izumrtjem pretirani. Med njimi je tudi profesor LeCun, ki dela pri Meti. Po njegovih besedah so ta apokaliptična opozorila prenapihnjena. Na Twitter je zapisal, da se raziskovalci umetne inteligence na te prerokbe najpogosteje odzovejo tako, da se primejo za glavo.
Center za varnost umetne inteligence je predstavil nekaj možnih scenarijev katastrofe:
- Umetne inteligence bi lahko oborožili – orodja za odkrivanje drog bi lahko na primer uporabili za izdelavo kemičnega orožja.
- Lažne informacije, ki jih ustvarja umetna inteligenca, bi lahko destabilizirale družbo in "spodkopale kolektivno odločanje".
- Z umetno inteligenco bi lahko upravljala le izbrana peščica, kar bi "režimom omogočilo, da bi uveljavili svoje vrednote z vsesplošnim nadzorom in zatiralsko cenzuro".
- Ljudje bi lahko postali šibki oziroma oslabljeni zaradi prekomerne odvisnosti od umetne inteligence - šlo bi za podoben scenarij, kot je prikazan v filmu Wall-E.
Nekatere bolj kot "izumrtje" skrbijo kratkoročni učinki uporabe AI
Tudi nekateri drugi strokovnjaki menijo, da so strahovi pred umetno inteligenco, ki bi izbrisala človeštvo, nerealni in odvračajo pozornost od vprašanj, kot je denimo pristranskost v sistemih, kar je že problem.
Arvind Narayanan, strokovnjak za računalništvo na Univerzi Princeton, je za BBC povedal, da so scenariji katastrofe, podobni znanstvenofantastičnim, nerealni: "Trenutni AI ni niti približno dovolj sposoben, da bi se ta tveganja uresničila. Posledično pa ti strahovi preusmerjajo pozornost od kratkoročne škode umetne inteligence".
Tudi višja raziskovalna sodelavka Oxfordovega inštituta za etiko in umetno inteligenco Elizabeth Renieris je za BBC News povedala, da jo bolj skrbijo kratkoročna tveganja. "Napredek v umetni inteligenci bo povečal obseg avtomatiziranega odločanja, ki je pristransko, diskriminatorno, izključujoče ali kako drugače nepravično, hkrati pa nedoumljivo in neizpodbitno," je dejala.
Po njenih besedah bi umetna inteligenca lahko povzročila "eksponentno širjenje dezinformacij, s čimer bi popačila resničnost in spodkopala zaupanje javnosti, posledično pa spodbudila nadaljnjo neenakost, zlasti za tiste, ki ostajajo na napačni strani digitalnega razkoraka".
Direktor Centra za varnost umetne inteligence Dan Hendrycks pravi, da bi nam naslavljanje nekaterih kratkoročnih težav lahko pomagalo pri kasnejših tveganjih.
So tveganja AI podobna tveganjem jedrske vojne?
Val opozoril glede umetne inteligence se je usul marca, ko so se strokovnjaki, med njimi tudi šef Tesle Elon Musk, podpisali pod odprto pismo, v katerem so pozvali k zaustavitvi razvoja naslednje generacije tehnologije umetne inteligence. V pismu so se spraševali, če je smiselno razviti umetno inteligenco, ki bi nas lahko sčasoma presegla, prelisičila ali nadomestila.
V novi kampanji pa želijo predvsem odpreti razpravo. Tveganje napredka umetne inteligence primerjajo s tveganjem jedrske vojne. OpenAI je nedavno predlagal, da bi superinteligenco regulirali na podoben način kot jedrsko energijo: "Verjetno bomo sčasoma potrebovali nekaj podobnega IAEA (Mednarodni agenciji za jedrsko energijo) za superinteligenčna prizadevanja".
Voditelji že razpravljajo o regulaciji AI
O umetni inteligenci so nedavno razpravljali tudi voditelji na vrhu G7, ustanovili so tudi delovno skupino za AI.
Britanski premier Rishi Sunak se je že sestal z voditelji tehnoloških velikanov, kot sta Sam Altman in izvršni direktor Googla Sundar Pichai. Spomnil je, da je umetna inteligenca pred kratkim paraliziranim ljudem pomagala pri hoji in celo odkrila nove antibiotike. "Vendar pa moramo poskrbeti, da bo delovala varno," je povedal. Z izvršnimi direktorji večjih podjetij z umetno inteligenco je tako razpravljal o predpisih, ki bi jih bilo potrebno uvesti za povečanje varnosti.
Bolj ko se bo umetna inteligenca razvijala, bolj nujna bo tudi njena regulacija, še opozarjajo nekateri strokovnjaki.
KOMENTARJI (117)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.