"Boter" umetne inteligence Geoffrey Hinton je v izjavi za New York Times napovedal svoj odstop iz Googla. "Star sem 75 let, zato je čas, da se upokojim," je dejal ter ob tem dodal, da obžaluje svoje delo na področju umetne inteligence. Njegova pionirska raziskava o globokem učenju in nevronskih mrežah je na primer utrla pot trenutnim sistemom umetne inteligence, kot je tudi program ChatGPT.
Za BBC je Hinton povedal, da so nekatere nevarnosti robotov z umetno inteligenco precej strašljive. "Trenutno niso nič bolj inteligentni od nas. Mislim pa, da bodo kmalu," je dejal strokovnjak na področju. Britansko-kanadski kognitivni psiholog in računalničar je razkril tudi, da bi lahko chatbot kmalu prehitel raven informacij, ki jih imajo človeški možgani.
Razložil je, da lahko programi, kot je na primer ChatGPT-4, osebo zasenčijo v količini splošnega znanja, ki ga ima. "Program sicer trenutno še ni tako dober pri sklepanju. Vendar pa glede na stopnjo napredka pričakujemo, da se bodo stvari precej hitro izboljšale. Zato nas mora to skrbeti," je posvaril.
Scenarij iz nočne more, ki pa je mogoč
Omenil je na primer, da bi nekateri umetno inteligenco lahko uporabili za "slabe stvari". "To je le najslabši možni scenarij, nekakšen scenarij iz nočne more," je pojasnil.
"Verjetno si lahko predstavljate, da bi morda nekdo, kot je na primer ruski predsednik Vladimir Putin, dovolil, da si roboti ustvarijo lastne podcilje." Znanstvenik je opozoril, da bi lahko to sčasoma pomenilo tudi, da bi robot začel delovati na princip ustvarjanja več moči zase.
"Prišel sem do zaključka, da se vrsta inteligence, ki jo razvijamo, zelo razlikuje od inteligence, ki jo imamo," je dodal. Ljudje imajo namreč biološke sisteme, roboti pa digitalne, je pojasnil. Pri digitalnih sistemih se namreč ustvarja več kopij, ki se lahko učijo ločeno in med seboj takoj delijo ustvarjeno znanje.
Kako bi bilo to videti, če bi lahko delovanje robotov preslikali na človeštvo? "Podobno bi bilo temu, da bi lahko v množici 10.000 ljudi vsak posameznik, ki bi se nekaj naučil, znanje instantno delil z drugimi, ki bi se tako v trenutku naučili vsega. Prav zaradi tega lahko tovrstni programi, kot je ChatGPT, vedo veliko več kot le ena oseba," je pojasnil.
Tehnološkega velikana Google sicer ne kritizira. Meni, da je bilo podjetje pri svojem ustvarjanju celo zelo odgovorno.
Tudi Googlov glavni znanstvenik Jeff Dean je zagotovil: "Ostajamo zavezani odgovornemu pristopu do umetne inteligence. Nenehno se učimo razumeti nastajajoča tveganja, hkrati pa pogumno uvajamo inovacije."
KOMENTARJI (90)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.