Vas moti, da pri podjetju OpenAI ne želijo razkriti, kako so naučili model GPT-4?
To je zelo slabo. Oni so od skupnosti za obdelavo naravnega jezika (angl. NLP) dobili tehnologijo, ljudi, podatkovne množice, zdaj pa so se zaprli. Toda odprtost je lahko tudi dvorezen meč.
Zakaj potem skrivajo? Je to zaradi konkurenčne prednosti?
Začeli so že pri GPT-3. Takrat so rekli, da je model tako dober, da bi lahko razkrivanje podrobnosti postalo nevarno. S tem so pritegnili veliko pozornosti in tudi reklame. Neka strategija, ki je očitno do neke mere delovala.
Avtorja predavanja AI Dilemma sta predlagala, naj se ustavi javna uporaba zmogljivejših modelov, nista izrecno proti razvoju v laboratorijih. Sta pa umetno inteligenco primerjala z atomsko bombo in dejala, naj podjetja, ki na trg dajejo velike jezikovne modele, dokažejo, da niso škodljivi. Je to eden izmed smiselnih pristopov?
Ne vem, kako bi lahko pokazali vse posledice, nihče ni prerok. Sicer pa nimam rad te primerjave z atomsko bombo. Verjetno ne bi želeli, da se ustavijo raziskave v jedrski fiziki. Bili pa so tudi že podobni strahovi, na primer, da bodo zaradi dejavnosti velikega hadronskega trkalnika v Cernu nastale črne luknje in podobno. Strah je zelo človeško čustvo in nas varuje. Razumem strahove, moramo razmišljati o teh stvareh, ne moremo pa vsega predvideti.
Se ti modeli lahko učijo tudi na podlagi naše, torej uporabniške povratne informacije?
Gotovo je ta povratna informacija vključena. Težko pa rečemo, kako zanesljiva je ta povratna informacija. Obstajajo proste podatkovne množice, kjer razvijalci zbirajo uporabnikova vprašanja in odgovore ter jih popravljajo.
Pri OpenAI torej poznajo moja vprašana in ukaze na ChatGPT-ju?
Da. Nekdo mora pogledati, ali je bilo to res v redu.
Še ena velika fronta se odpira pri tako imenovani usklajenosti z velikimi jezikovnimi modeli. Torej, da so cilji umetne inteligence usklajeni s cilji človeštva. Kako ohraniti nadzor in naučiti človeške etične vrednote?
Usklajenost (angl. alignment) z umetno inteligenco ne obstaja. Mi na nek način tem modelom pripisujemo človeške lastnosti. Obstaja pa volja teh, ki so te modele ustvarili. To so velika podjetja, kot so OpenAI, Google, Microsoft, Meta, Amazon. Ti pa imajo neko svojo voljo, svoje komercialne cilje. Zdaj vidimo, da se je začela ponovna vojna med iskalniki. Google ima problem s svojim poslovnim modelom, kako prodajati reklame, če imaš odgovor v obliki besedila in ne veš, kam postaviti oglas. Glavni namen je tukaj pridobiti nove stranke. Temu bi jaz rekel usklajenost.
Pa se ta podjetja obnašajo odgovorno oziroma usklajeno s človeškimi cilji?
Vemo, da se nikoli niso obnašali odgovorno, tako da ne vem, zakaj bi se zdaj obnašali odgovorno. Skušajo povečati dobiček, biti konkurenčni, to je predvsem odgovorno do svojih delničarjev.
Na kateri točki za vas kot znanstvenika nastane problem?
Ni dobro, da smo preveč optimistični glede sposobnosti teh modelov, ker tako dobri spet niso. Obstajajo scenariji, kjer se da recimo neko goljufijo zdaj izvesti, ki se je prej ni moglo, to je gotovo grožnja. Bolj moramo biti previdni, s kom se pogovarjamo, kdo nam odpisuje, in tudi zakonodaja se bo morala prilagoditi, kar se tudi že, po mojem zelo hitro.
Trenutno strokovno javnost, raziskovalce najbolj bega učinkovitost teh modelov. Nihče ne zna pojasniti, zakaj delujejo tako dobro. Pri Googlu, denimo, ne znajo pojasniti, zakaj njihov model Bard razume in odgovarja v bengalščini, če ga s temi podatki niso učili. Kako se je lahko naučil tega jezika?
Zavedati se moramo, da so ti veliki jezikovni modeli učeni na ogromnih bazah besedil. Predstavljajte si, da so videli ves internet, in sem prepričan, da so videli tudi bengalske besede. To je nemogoče skriti, recimo slovenski modeli so videli zelo veliko angleških besed.
Pred ChatGPT-jem ste raziskovalci upravljali z različnimi modeli. Eden je bil za ustvarjanje slik, drugi je pomagal razvozlati biološke uganke, tretji je znal programirati in tako naprej. Z orodjem OpenAI je vse združeno v enem modelu. Nekateri strokovnjaki zato napovedujejo dvojno eksponentno rast umetne inteligence.
To je fikcija. Ni dvojne eksponentne rasti. GPT-3 je nastal leta 2020, pa doslej še ni bilo neke zares uporabne aplikacije. Ker ti modeli še vedno zahtevajo človeško intervencijo pri uporabi.
Zakaj je potem ChatGPT tako zmogljiv?
Poleg tega, da dobro predvideva srednjo besedo, je naučen še na človeški povratni informaciji. To so naredili tako, da so jim ljudje postavili 10.000 tipičnih vprašanj, potem so popravili odgovore in jih tudi razvrstili po kakovosti, torej kateri odgovor je boljši ali slabši. Potem so ustvarili ločeno nevronsko mrežo, ki se je sama naučila razvrščati te odgovore na boljše in slabše. Tako je tista ločena nevronska mreža še dodatno učila to prvo nevronsko mrežo. To je povzročilo premik, da se ti modeli znajo naenkrat bolje pogovarjati z nami, bolje sledijo našim ukazom. Toda naš obseg pogovorov s temi modeli je veliko večji od tistih prvotnih 10.000 vprašanj, zato prihaja tudi do neprimernih in zavajajočih odgovorov.
Toda GPT-4, za zdaj najbolj zmogljiv model, ne kaže več toliko nepravilnosti, pravzaprav je postal 'strašljivo' dober. Vseeno pa opozarjate na pretirano navdušenje. Zakaj?
Res so s tem modelom pokazali, da zelo uspešno rešuje najtežje univerzitetne teste. Toda naučen je s podatki, ki se končajo leta 2021, kar pomeni, da je zelo verjetno, da so ti modeli videli tudi odgovore. To je kar velik problem tudi za celotno znanstveno skupnost, ker so ti modeli zdaj izvedeli odgovore na teste v podatkovnih množicah, ki smo jih zbirali desetletja. Skratka takšni testi niso več veljavni.
Kaj je 'grounding' v kontekstu velikih jezikovnih modelov?
Načeloma so ti modeli naučeni samo na besedilih in poznajo samo to, kar je v besedilih. Ne zavedajo se fizične pojavnosti sveta, razen tega, kar je zapisano v tekstu. Zato je njihova logika sklepanja v zvezi z realnim svetom zelo pomanjkljiva. Ne zavedajo se fizikalnih ali človeških lastnosti in odnosov. Kaj je sprejemljivo, kaj ni, kaj so kulturne norme, kako se razlikujejo med državami.
Ali zato halucinirajo?
Halucinacije so malo drugačen koncept. V osnovi izhajajo iz tega, kako je model učen. V praksi to poteka tako, da napoveduje srednje besede na podlagi dolgega konteksta. V ozadju pa ni nekega koncepta razumevanja. Zato si včasih kaj kar izmisli oziroma halucinira, ker je vzorčil iz verjetnostne distribucije, in izbere nekaj, kar je najbolj verjetno.
Večji preboj z generativnimi modeli se je zgodil leta 2017. Zakaj?
Pravzaprav se je prvi preboj zgodil leta 2009. Takrat so se pojavili prvi večji modeli strojnega učenja. Znanstveniki so ugotovili, da so grafične kartice, ki so bile dotlej koristne za igranje videoiger, primerne tudi za obdelavo večje količine podatkov. In potem so leta 2017 rekli, naredimo tako arhitekturo, ki bo izrazito prilagojena dosedanjim slabostim. Ena slabost je bila ta, da so nevronske mreže slabo delovale na vzporednih procesorjih, druga je bila, da niso znali operirati z dolgimi besedili. Raziskovalci Googla so predlagali generativni pristop, ki je bil zelo uspešen pri strojnem prevajanju. Imamo tudi slovenske generativne modele, ki pa so tisočkrat manjši od recimo modela GPT-3.
Se izobraževalne ustanove kaj obračajo na vas, glede na to, da bo umetna inteligenca močno posegla tudi v izobraževanje?
Nimamo prav veliko strategij na tem področju. Imamo sicer strategijo razvoja umetne inteligence, kjer je omenjeno tudi izobraževanje, konkretno pa še nisem videl nobenih implementacij. So neke pobude, da bi se učenci učili podatkovne analitike, a smo v Sloveniji zelo zaostali na tem področju. Niti računalništva na ravni računskega razmišljanja nismo uvedli. Računalništvo na osnovnih in srednjih šolah pri nas je na ravni uporabe Worda. Skratka nimamo nobenega koncepta. Pomemben koncept je algoritemsko razmišljanje (angl. computational thinking), kar je računalništvo brez računalništva in ničesar od tega ne uporabljamo na naših šolah. In tudi zdajšnje Ministrstvo za digitalno preobrazbo je proti temu, da bi učenje tega znanja v naprednejši obliki uvedli v šole.
Kako si predstavljate leto 2050?
Fizik Nils Bohr je rekel: napovedovati je težko, še posebej prihodnost. In pri tem naj tudi ostane.
KOMENTARJI (36)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.