![Klepetalni robot lahko diagnosticira redka stanja, "tako, kot bi jih jaz", pravi dr. Isaac Kohane.](https://images.24ur.com/media/images/424xX/Apr2023/80f05e7e5d61fcd7ed87_62934335.jpg?v=ba74&fop=fp:0.41:0.31)
Dr. Isaac Kohane, ki je hkrati računalniški znanstvenik na Harvardu in zdravnik, se je s kolegoma odločil preizkusiti GPT-4. Njihov cilj: videti, kako se najnovejši model umetne inteligence iz OpenAI obnese v medicinskem okolju.
"Presenečen sem, ko rečem: boljši je od mnogih zdravnikov, ki sem jih opazoval," pravi v prihajajoči knjigi "Revolucija umetne inteligence v medicini", katere soavtorja sta neodvisna novinarka Carey Goldberg in Microsoftov podpredsednik za raziskave Peter Lee, poroča Business Insider. Avtorja sicer pravita, da niti Microsoft niti OpenAI nista zahtevala uredniškega nadzora nad knjigo, čeprav je Microsoft vložil milijarde dolarjev v razvoj tehnologije.
Kohane pravi, da je GPT-4, ki je bil izdan marca 2023 plačljivim naročnikom, v več kot 90 odstotkih primerov pravilno odgovoril na vprašanja. Odrezal se je veliko bolje kot prejšnji modeli ChatGPT AI, GPT-3 in 3,5 ter bolje kot nekateri zdravniki z licenco.
Avtorji menijo, da lahko GPT-4 daje zdravnikom tudi koristne predloge glede obnašanja ob bolniški postelji, ponuja nasvete, kako se z bolniki pogovarjati o njihovih stanjih v sočutnem, jasnem jeziku, in lahko prebere dolga poročila ali študije ter jih hitro in strnjeno povzame.
Kohane je AI soočil tudi s primerom iz resničnega življenja. Robotu je dal nekaj ključnih podrobnosti o otroku, ki jih je zbral na fizičnem pregledu, pa tudi nekaj informacij z ultrazvoka in ravni hormonov. AI je pravilno diagnosticiral redko stanje, imenovano prirojena hiperplazija nadledvične žleze. "In to tako, kot bi ga jaz, z vsemi leti študija in izkušnjami," je zapisal Kohane.
"Po eni strani sem imel prefinjen medicinski pogovor z računalniškim programom," je zapisal. "Po drugi strani pa je bilo prav tako neverjetno spoznanje, da bodo milijoni kmalu imeli dostop do tega impresivnega medicinskega znanja," je dodal z nekaj zaskrbljenosti. Ni še namreč mogoče potrditi, da so nasveti GPT-4 varni in vedno učinkoviti.
GPT-4 namreč ni vedno zanesljiv in knjiga je polna primerov njegovih napak. Segajo od preprostih tipkarskih napak, kot je napačna navedba indeksa telesne mase, ki ga je robot nekaj trenutkov prej pravilno izračunal, do matematičnih napak, kot je nenatančno "reševanje" sudokuja ali pozabljanje kvadriranja člena v enačbi. Napake so pogosto subtilne in sistem je nagnjen k zatrjevanju, da ima prav, tudi ko je soočen z napako. Pri tem pa si ni težko predstavljati, kako bi napačna številka ali napačno izračunana teža lahko povzročila resne napake pri predpisovanju zdravil ali diagnozi.
Tako kot prejšnji GPT lahko tudi GPT-4 "halucinira"– situacija, ko si AI izmišljuje odgovore ali ne uboga zahtev.
Ko so ga avtorji knjige povprašali o tem, je po pisanju Business Insiderja GPT-4 dejal: "Ne nameravam nikogar zavajati, vendar včasih naredim napake ali domneve na podlagi nepopolnih ali netočnih podatkov. Prav tako nimam klinične presoje oziroma etične odgovornosti človeškega zdravnika ali medicinske sestre."
Kot možnost preverjanja avtorji predlagajo, da uporabnik začne novo sejo z GPT-4. Ali pa lahko strokovnjak rešitev preveri z lastnim znanjem.
Jasno je, da lahko GPT-4 sprosti dragoceni čas in vire, ker zdravnikom omogoča, da so bolj prisotni pri pacientih, "namesto pri svojih računalniških zaslonih", pišejo avtorji. Toda, pravijo, "moramo si predstavljati svet s stroji, ki bodo sčasoma morda presegli človeško inteligenco v skoraj vseh dimenzijah, nato pa dobro premisliti, kako želimo, da ta svet deluje".
KOMENTARJI (58)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.