Znanost in tehnologija

AI nastavlja ogledalo: Če algoritem 'nahranimo z besno Twitter debato', dobimo fašista

Ljubljana, 01. 12. 2019 09.56 |

PREDVIDEN ČAS BRANJA: 10 min
Avtor
Natalija Švab
Komentarji
110

Umetna inteligenca je odraz ljudi, ki jo ustvarjajo, pravi danski strokovnjak Jonas Valbjørn Andersen. "Temeljno vprašanje torej je, katerih etičnih načel se držijo ljudje, ki pripravljajo podatke, na podlagi katerih nato algoritem pripravlja rešitve," poudarja. Opozarja, da nujno potrebujemo regulacijo področja, in to takšno, ki bo sposobna omejiti potencialne neželene učinke. To pa pomeni, da se bomo kot družba morali "temeljito pogovoriti o vrednotah".

Potovalni računalnik

Jonas Valbjørn Andersen je raziskovalec v skupini za tehnologijo, inovacije, upravljanje in podjetništvo na univerzi IT v Köbenhavnu. Njegove raziskave se osredotočajo na digitalno porazdeljene sisteme in procese, povezane z organizacijskim in algoritmičnim odločanjem.

Doktoriral je s področja digitalnih inovacij v bančništvu v Veliki Britaniji. "To me je vedno zanimalo," pravi. Tudi zato ker se je v njegovih študijskih letih to področje hitro razvijalo, med drugim je z razmahom tehnologije veriženja blokov, kriptovalut postalo tudi javno precej prepoznavno in zanimivo. Na vse skupaj je znotraj sektorja vplivala tudi želja po iskanju "novih poti in pristopov" po uničujoči finančni krizi.

Andersen se danes ukvarja z vplivom algoritmičnega odločanja v bančnem sistemu – kako lahko s pomočjo algoritmov organiziramo in upravljamo stvari. Čeprav je zagovornik uvajanja umetne inteligence (AI) v procese finančnega sektorja, je prepričan, da ga povsem avtomatizirati ni mogoče, prav tako izpostavlja nujnost regulacije – a ne koščkov tehnologije, ampak njenih vplivov: "Ko trenutno govorimo o regulaciji umetne inteligence, se o tem pogovarjamo, kot bi v avtomobilski industriji želeli regulirati delčke, ki sestavljajo motor, ne pa tudi omejiti največje dovoljene hitrosti. In to ni pravi pristop, če želimo, da bo uporaba AI varna in etična."

"Odločitve, ki jih 'sprejema' umetna inteligenca, niso manifestacija 'volje algoritmov', ampak posledica vhodnih podatkov – ki jih priskrbimo ljudje"

AI človeštvu nastavlja ogledalo. Čas je, da se dobro ogledamo, saj lahko AI prinese veliko dobrega ali veliko slabega. Lahko se v tem procesu česa naučimo, preučimo človeško vedenje na nivoju, kot še nismo mogli, lahko pa vse skupaj gre v napačno smer.

Andersen, s katerim sva se pogovarjala ob robu konference Soobstoj z umetno inteligenco: vizija Družbe 5.0, ki je pred kratkim potekala v Ljubljani v organizaciji Zavoda 14, je torej glede uvajanja novih tehnologij zmeren optimist. Ni eden tistih, ki pravijo – če bi kontrolo predali "računalnikom" – se finančna kriza ne bi zgodila. "Algoritmi so po svoje zelo zapleteni, težko razumljivi, po svoje pa zelo preprosti. Večina napak, ki jih storijo računalniki, je posledica napačnih vhodnih podatkov. Torej tistih podatkov, ki jih v obdelavo 'pošljemo' ljudje."

Algoritmi torej obdelujejo digitalne sledi, ki jih puščamo za seboj – pravzaprav na vsakem koraku. "Že ko snemava ta pogovor, ustvarjava veliko podatkov. Ko sem bil na poti sem, sem uporabil Google Maps, da se nisem izgubil – in torej pustil za seboj sled celotnega mojega gibanja," razlaga Andersen. "Algoritmi imajo potencialno na voljo res veliko podatkov, ampak rezultati njihovega delovanja so bolj odraz našega vedenja, ki ga izluščijo iz podatkov – kot manifestacija njihove volje." 

AI nas sili, da se pogledamo v ogledalo

"Svojevoljnega, jeznega, maščevalnega, superinteligentnega" robota se nam tako (še) ni treba bati, pravi sogovornik, moramo pa se zavedati pomena kakovosti in nepristranskosti vhodnih podatkov: "Temeljno vprašanje je, katerih etičnih načel se držijo ljudje, ki pripravljajo podatke in kakšni so ti podatki. Če boste algoritem 'nahranili' z besno 'Twitter razpravo', bo hitro postal fašist." Ampak za to pravzaprav ne bo kriv algoritem kot tehnološka rešitev, ampak vhodni podatki.

"AI v tem smislu človeštvu nastavlja ogledalo. Čas je, da se dobro ogledamo, saj lahko AI prinese veliko dobrega ali veliko slabega. Lahko se v tem procesu česa naučimo, preučimo človeško vedenje na nivoju, kot še nismo mogli, lahko pa vse skupaj gre v napačno smer," opozarja strokovnjak.

Kam se pritožite, ko izginejo bitcoini ali izgubite skrbništvo nad otrokom, ker je algoritem "ugotovil", da ne plačujete davkov?

V napačno smer lahko gremo tudi brez smiselne regulacije. "Veliko govorimo o tem, kako bi regulirali algoritme, premalo pa se pogovarjamo, kako algoritmi regulirajo nas. Inkorporirani so že v delovanje številnih državnih ustanov. Pravzaprav do te mere, da se spreminja osnovna družbena ureditev, izpostavljena je nekaterim zelo resnim novim tveganjem."

Ki pa se jih največji zagovorniki nekritičnega in nenadzorovanega uvajanja novih tehnologij premalo zavedajo: "Vzemimo za primer bitcoin. Ko gre nekaj narobe, ko nekdo ukrade goro bitcoinov – kdo odgovarja? Koga boste poklicali? Kdo je direktor bitcoina? Komu se boste pritožili?" In tako se znajdemo v okoliščini, ko se najbolj "zaželena lastnost" spremeni v najhujšo nočno moro – bitcoin je namreč navdušil prav zaradi oddaljenosti od klasičnega (reguliranega) bančnega sistema. "Ampak zavedati se je treba – če ni regulacije, so večja tveganja. Jasno je, da je za ljudi privlačna ideja, da se z nekimi rešitvami 'zaobide sistem'. Toda potem se moramo zavedati potencialnih posledic, pogovoriti se moramo o tveganjih. Ne moremo institucij čez noč nadomestiti z eksperimenti." 

Veliko govorimo o tem, kako bi mi regulirali algoritme, premalo pa se pogovarjamo o tem, kako algoritmi regulirajo nas. Inkorporirani so že v delovanje številnih državnih ustanov. V bistvu do te mere, da se spreminja osnovna družbena ureditev, izpostavljena je nekaterim zelo resnim novim tveganjem.
Tudi zato ker gre za sisteme, ki jih je težko obvladovati, če ni jasne regulacije. In odgovora na vprašanje – kaj si sploh želimo, da algoritmi počnejo, in predvsem česa ne. "Imamo zavarovalnice, ki analizirajo podatke o vedenju voznikov in na podlagi tega določajo višino premije – če si agresiven voznik, je ta višja. To je precej neposreden način, kako algoritem vpliva na naše življenje. Potem pa v ozadju poteka še cel kup analiz, ki jih niti ne opazimo, dokler ne vplivajo na nas. Na Danskem se v javnem sektorju o posamezniku zbira veliko podatkov in imeli smo primere, ko je neplačevanje davkov vplivalo na primere o določitvi skrbništva v primeru ločitve. To je seveda dvignilo veliko prahu. In tukaj se skriva nekaj, kar bi nas kot državljane moralo skrbeti – da se podatki, ki so bili zbrani z nekim namenom, nato uporabijo v nekem čisto novem kontekstu. Mislim, da si tega nihče ne želi. Ampak tega ne moremo rešiti z regulacijo algoritmov kot 'strojne opreme'."
Roboti delajo na računalnikih
Roboti delajo na računalnikih FOTO: iStock

"Regulirati je treba hitrost, ne sestavnih delov avtomobila." Ter se upreti skušnjavi po nadzoru

A natančno to se dogaja, ko trenutno govorimo o regulaciji umetne inteligence, pravi sogovornik: "Nekako tako kot bi v avtomobilski industriji želeli regulirati delčke, ki sestavljajo motor, ne pa tudi omejiti največje dovoljene hitrosti. Kar pa je napačen pristop. Ljudje morajo vedeti, v kakšnem kontekstu se bo nekaj uporabljalo."

To odpira povsem novo razpravo – tisto, o družbenih normah, vrednotah, stvareh, o katerih se predvsem zahodna družba v zadnjih letih sredi iskanja ekonomskega napredka ni pogovarjala. Se bo pa morala. Še posebej zato, ker globalni kontekst trenutno kaže na vsaj tri modele rabe umetne inteligence – ameriškega, kitajskega in evropskega – in ker si z razmahom tehnologij nihče ne želi, da bi se pravila igre spreminjala ob vsakih volitvah. Če je to v nekaterih kontekstih še sprejemljivo, v primeru orodij, ki uporabljajo umetno inteligenco ni. "Živimo v sistemu, ki temelji na racionalnih odločitvah posameznikov, ampak zavedati se moramo, da v trenutku, ko je mogoče zbirati in obdelovati takšne količine podatkov, to pomeni neko novo realnost." V tej novi realnosti je treba krmariti na nove načine. Izogniti se je treba tudi nekaterim skušnjavam, meni Andersen: "Transparentnost ne sme postati kontrola. Moje osebno mnenje je, da poskusi mikromenedžiranja gradnje algoritmov niso dobra ideja, do takrat, ko bodo ugotovili, kako s takšnim pristopom regulirati obstoječo tehnologijo, se bo ta premaknila že na povsem novo raven in bo regulacija postala brezpredmetna."

Cilj mora tako postati regulacija neželenih učinkov uporabe določenih tehnologij. "Pomemben razlog, zakaj se moramo pri regulaciji pogovarjati o učinkih tehnologij, je tudi ta, da bo imel v različnih okoljih, za različne namene isti algoritem povsem različne učinke. Če torej regulirate samo 'stroj', s tem niste naredili prav veliko. Regulirati je treba, poudarjam, učinke. To v praksi pomeni, da ne 'prepovedujemo' tipov algoritmov, ampak omejujemo določene učinke algoritmov. Od sektorja moramo tudi zahtevati točnost napovedi in delovanja algoritmov."  Prav tako bo morala biti zakonodaja ravno zaradi različnih učinkov zelo podrobna in dosledna: "Regulacija bo morala biti vezana na specifične industrije."

V različnih okoljih, za različne namene, bo imel isti algoritem povsem različne učinke. Če torej regulirate samo "stroj", s tem niste naredili prav veliko. Regulirati je treba, poudarjam, učinke. Regulacija bo morala biti vezana na specifične industrije.
Ker pa se do zdaj to ni zgodilo, razvoja tehnologije pa zakonodajalci ne dohajajo, imamo platforme, ki funkcionirajo skoraj brez omejitev in so skoraj užaljene, ko je govor o regulaciji. "V zadnjem času smo videli nekaj poskusov, da se tehnološke gigante prisili, da prevzamejo nekaj odgovornosti za posledice svojega početja, kar me navdaja z optimizmom, saj – kot rečeno – mislim, da je to najbolj racionalno." Popolno razumevanje tehnologije namreč ne bi bilo le počasno in drago, ampak včasih tudi nemogoče: "Včasih je nemogoče razvozlati, kako je računalnik sprejel neko odločitev. In še enkrat – čeprav nam to uspe, to samo po sebi ne more preprečiti neželenih posledic delovanja algoritma."

Je pa dobro, da poznamo vsaj osnove. In tako ne gledamo ponovitev "predstav", kot je bila tista ob zaslišanju šefa Facebooka Marka Zuckerberga v ameriškem kongresu, kjer je bilo precej jasno, da marsikateri politik ne pozna niti osnov problema, o katerem je bil govor. "Eden od indikatorjev je bil, da so v primeru Cambridge Analytice številni mislili, da je šlo za hekersko pridobivanje podatkov," pravi Andersen.

Ne, algoritmi ne bodo rešili vseh naših težav, tudi demokracije nam ne bodo prinesli. Imajo pa ogromno potenciala, da nam ob pravilni uporabi olajšajo življenje

Sicer pa Andersen umetne inteligence, ki jo marsikdo vidi kot "naslednjo veliko stvar", ne vidi kot "odrešenika": "Z vsemi inovativnimi tehnologijami se pojavijo zelo nerealna pričakovanja ljudi. Podobno je bilo s pojavom svetovnega spleta, ko so bili mnogi prepričani, da se bo tako razvila idealna demokracija. Ampak to se ni zgodilo. Potem so ultimativno demokratizacijo videli v družbenih omrežjih, pa je na koncu prišlo spoznanje, da FB uravnava, kdo je slišen … Demokracija se torej spet ni izboljšala. In potem je na valu razočaranja nad družbenimi omrežji sledilo navdušenje nad umetno inteligenco. Nekateri so prepričani, da nas bo rešila pred multinacionalkami in omrežji, ki naj bi vladala svetu, obvarovala pred krivico ... Ampak to ne drži."

Družbenemu inženiringu smo seveda bili priča skozi vso zgodovino človeštva, razlika je samo v učinkovitosti orodja. In kar koli AI počne, počne hitro in učinkovito.

Umetna inteligenca namreč ni čarobna paličica: "Veliko je potenciala – tako v smislu koristi kot nevarnosti." V smislu koristnega potenciala sogovornik izpostavlja opravljanje del, ki jih lahko opravijo veliko precizneje in hitreje kot človek: "Krasno je, če zna neka naprava v realnem času prevajati različne jezike, že medtem ko govoriva. Tudi avtonomne železnice niso slaba ideja ... Sistemi, ki skrbijo za boljšo pretočnost prometa, so odlični, tehnologija je izboljšala varnost v letalstvu, izboljšali so se številni procesi, ki se jih niti ne zavedamo ..."

Težava pa je potencialna zloraba te tehnologije za družbeni inženiring: "Družbenemu inženiringu smo seveda bili priča vso zgodovino človeštva, razlika je samo v učinkovitosti orodja. In kar koli AI počne, počne hitro in učinkovito." Torej tako učinkovito, kot tega ni počela v preteklosti prav nobena propaganda.

Posojilo na podlagi FB-profila ali kje so meje?

Analiza podatkov še nikoli ni bila tako učinkovita – tudi zato gre za tehnologijo, ki je zelo privlačna za bančni sektor, v katerem je "doma" naš sogovornik: "Obstajajo določeni procesi, kjer so algoritmi res zelo učinkoviti. Recimo nad transakcijami bdijo natančno kot nihče drug." Potem pa so tukaj tudi bolj "mejne uporabe": "Eden takšnih primerov, ki je vzbudil veliko pozornosti, je preverjanje prošenj za posojila s pomočjo algoritmov, ki so 'brskali' po življenju prosilca. O etiki tega ne bi razpravljal, tehnično pa to pomeni, da so preverili družbena omrežja prosilca in uporabili zbrane podatke za oceno tveganja. To se dogaja v vse več finančnih ustanovah. Čeprav večina bank še vedno deluje tako, da pristopite k bančnemu okencu, se pogovorite z uslužbencem, v ozadju poteka vse več procesov, ki na podlagi analize podatkov preverjajo posameznikovo finančno vedenje, ko gre za upravljanje z denarjem."

S pojavom svetovnega spleta, ko so bili mnogi prepričani, da se bo razvila idealna demokracija. Ampak to se ni zgodilo. Potem so ultimativno demokratizacijo videli v družbenih omrežjih, pa je na koncu prišlo spoznanje, da FB uravnava, kdo je slišen … Zdaj je veliko navdušenje nad umetno inteligenco. Nekateri so prepričani, da nas bo rešila pred multinacionalkami in omrežji, ki naj bi vladala svetu, obvarovala pred krivico ... Ampak to ne drži.

Na podlagi tega se oblikujejo nekatere poslovne prakse. Na primer v zavarovalništvu: "Recimo moški med 18. in 25. letom starosti že marsikje težje oziroma za višje premije sklepajo avtomobilska zavarovanja, ker veljajo za rizično skupino."

A rešitev, ki je lahko po eni strani uporabna za ponudnika zavarovanj, je lahko za uporabnike precej krivična, poudarja Andersen: "Zagotovo so tudi v tej skupini zelo odgovorni vozniki oziroma imate tudi v drugih starostnih skupinah zelo neodgovorne voznike."

Kdo prepreči, da uporaba algoritmov ljudi ne razvrsti v predale in jih omeji preko vsej razumnih meja? "To je pa dobro vprašanje, in mislim, da na to (še) nimamo odgovora. Za zdaj mislim, da se bodo te metode uporabljale, dokler bo za to poslovno povpraševanje, poslovni motiv ... In do skrajne meje, do katere bo to dopuščala zakonodaja."

UI Vsebina ustvarjena brez generativne umetne inteligence.
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

KOMENTARJI (110)

Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.

letmeseeit
05. 12. 2019 19.24
ja če je algoritem pisal levičar potem je res tako. Desničar bi trdil, da dobimo komunista.
Plaedian
05. 12. 2019 19.21
erik von daniken je zakon
atlantis1974
03. 12. 2019 17.02
+0
Če bi umetno inteligenco nafilali z informacijami delovanja naše vlade in politikov bi po vsej verjetnosti prišlo do konca sveta
tomi.passion@gmail.com
02. 12. 2019 07.29
-2
Paradoks tega je, da vse skrbi porast "fašizma", a pozabljajo, da so prav vsa družbena omrežja in tisti, ki skrbijo za "filtre" in cenzuro, pravzaprav odkriti skrajni levičarji. Kot je Je rekel ustanovitelj FB na zasližanju, večina v njihovem podjetju nima levičarskih razmišljanj, ampak skrajna levičarska. Ergo, ne pozabimo, da je prav Marxizem bil ena izmed ideologij, po katerih se je zgledoval oče fašizma.
Cervantes Saavedra
02. 12. 2019 10.25
+4
ZA tomi...: Paradoksalno mimo. Očeta fašizma in nacizma sta bila najhujša uradna sovražnika marksizma, komuniste in tudi socialiste pa so ubijali, preganjali in zapirali v koncentracijska taborišča že precej pred 2. svetovno vojno. Marksizem je v svojih enciklikah napadalo več papežev, eden med njimi pa je leta 1937 celo prepovedal vsako sodelovanje s komunisti (ne pa z nacisti in fašisti). Kar je imelo usodne posledice v nekaterih (ne vseh!) okupiranih državah med 2. svetovno vojno. - Marx pa je doslej edini podal smiselno delovno teorijo vrednosti (tudi na podlagi idej predhodnikov), ki za večino primerov industrijske dobe dobro pojasnjuje način oplajanja kapitala. Marksizem ne brez potrebe proučujejo in poučujejo tudi na vrhunskih ameriških humanističnih univerzah. Ergo, tomi?
Mega100
01. 12. 2019 20.26
+1
Katero glasbo imate rajši slovensko ali nigerijsko. Za koga navijeta na nogometni tekmi za Slovenijo ali Nigerijo. Če ste odgovorili za Slovenijo, potem vas bo ta algoritem in levaška religija proglasili za nacionalista, rasista, fašista...itd. Potakem smo vsi nekakšni rasisti, nacionalisti,... itd, verjetno zato ker to je normalno.
Cervantes Saavedra
02. 12. 2019 10.10
+1
ZA Mega100: In podobno - ali se raje ravnate po besedah iz katoliške svete knjige ali od svojega župnika. Če ste se odločili za prvo možnost, ste zaslepljeni levičar, komunist...
Transformerji
01. 12. 2019 16.39
+6
Razmišljam, kako bi bilo, če bi v to umetno inteligenco vnesli vse svete zapovedi vseh ver.
Daisy Spencer
02. 12. 2019 09.36
-5
Tu je govor o inteligenci, ne poboznjakarstvu
Domendo
03. 12. 2019 17.27
NPC24ur
01. 12. 2019 15.12
+5
AI so nekje testirali studentje v ZDA in ta naj bi opazoval katere rasne ali politicne skupine ustvarjajo najvec sovraznega govora. Zacudeni so bili, ko so odkrili, da najvec le tega uporabljajo AntiFa, temnopolti in ti. marzinalne skupine. Skratka, ce skrajsamo, najvec nacisticnih vzdigov imajo prav tisti, ki imajo druge za naciste ali fasiste. No sej te ideologije so se razvile prav iz takih organizacij kot je Antifa...
perko36
01. 12. 2019 14.23
-1
Enostavno ne moreš verjet da nekateri pri vsakem članku najdejo komuniste ki jih ni že 30 let svkaa vam čast
BUONcaffee
01. 12. 2019 13.27
+6
Mene zanima kako bo z odpadki ko bodo tej roboti za v smeti????
AlternativeFacts
01. 12. 2019 13.36
-8
BUONcaffee
01. 12. 2019 13.49
+6
Ko se bodo pokvarili, do te mere, da se jih ne bo splačalo več imet. Ali pa bo že zastarel. Podobno kot vsaka stvar, recimo telefon ali avto???
BUONcaffee
01. 12. 2019 13.53
+5
Zagotovo bodo imeli ogromno plastike in nekatere strupene kovine, pa me zanima kako bo z odpadki. Ali prihaja še dodaten problem???
AlternativeFacts
01. 12. 2019 13.58
-5
Kolikor vem gre robotika v smeri samovzdrževanja. Torej se bodo roboti sami vzdrževali, kar pomeni da ni govora o zastarelosti...
BUONcaffee
01. 12. 2019 13.01
-3
AI se bo postavil po robi komunistom, to sem prepričan.
User1538643
01. 12. 2019 12.54
+9
AI (UI) ima zmogljivost ustvarjati in sestavljati algoritme. Če se jo omeji z etičnimi postulati, ki lahko medsebojno trčijo, katerega bo izbrala in se po njem ravnala. Recimo "Ničesar zoper človeka ne smem narediti." In "Moram obstati.". Kdo pa zdaj upa pristopiti in izklopiti mašinco?
User1538643
01. 12. 2019 12.39
+3
Veliko se govori on poskuša narediti na omejevanju uporabe in trgovine orožjem, pa še vedno se dogajajo vojne in, hm, akcije, vsepovsod, in tekma v oboroževanju in razvoju orožja nemiteno teče naprej. Sive in še bolj temne plati, o katerih se sploh ne govori, pa nam niso niti znane.
Cogo
01. 12. 2019 12.35
+12
Če bi nas država brezkompromisno zaščitila pred vpadi drugih kultur, če bi bobu rekli bob (tudi glede spolne usmerjenosti ipd.), potem skrajnosti (fašistov, nacistov in drugih skrajnosti) ne bi bilo. To je dejstvo. Med drugim tudi ne šiškovih premaknjencev ipd. Ker pa si levičarji ustvarjajo poligon za prevlado, tega ne želijo. Oni želijo ustvariti čimveč skrajnežev.
User1538643
01. 12. 2019 12.44
+0
Kdo pa ve, kaj je Bob, in to lahko pove, ne da bi sam bil ali pistal bob?
AlternativeFacts
01. 12. 2019 12.29
+0
In še da razčistimo zavajujoč naslov, ki pravi: "AI nastavlja ogledalo: Če algoritem 'nahranimo z besno Twitter debato', dobimo fazista".... V resnici je govora o AI ki zaradi podatkov, ki so vnešeni v fazi razvoja AI, le ta lahko postane fazistična. ..... "Temeljno vprašanje je, katerih etičnih načel se držijo ljudje, ki pripravljajo podatke in kakšni so ti podatki. Če boste algoritem 'nahranili' z besno 'Twitter razpravo', bo hitro postal fazist." ....
AlternativeFacts
01. 12. 2019 12.32
+5
Vas pa naj bo sram, da označite besedo, katero uporabljate vi sami v članku, kot neprimerno. S tem ne samo da kažete kakko neetični ste, ampak ste s takimim pravili celo žaljivi do uporabnikov tega portala...
Ramzess
01. 12. 2019 12.58
+1
Ne le v fazi razvoja, v katerikoli fazi, z določenim namenom, to se že dogaja.
BUONcaffee
01. 12. 2019 11.55
+12
AI bo tudi nadomestil moderatorja????
crazy but true
01. 12. 2019 12.00
+14
Ne. Za moderatorja zaposlijo zgolj "ideolosko ciste novinarje", vsak AI pa bi pregorel ce bi moral slediti njihovi ideologiji. Racunalniki imajo pac radi logiko in dejstva..
AlternativeFacts
01. 12. 2019 11.50
+6
(AI nastavlja ogledalo: Če algoritem 'nahranimo z besno Twitter debato', dobimo fašista)....@JAh nekdo nam mora povedati kaj dejansko smo, če si že sami lažemo na dnevni bazi...
crazy but true
01. 12. 2019 11.54
+6
Besna debata ala twitter (omejitev na 240 znakov) je po definiciji debata ki izkljucuje globoke razlage vzrokov in ppsledic. Vse kar ostane je kricanje, ki polarizira debato v levo in desno. Seveda pa nasi "novinarji" to obrnejo v "nastanek nacijev" in bodoco opravicenje cenzure nad "drugace mislecimi"... ker.. ce bodo dovolili da bodo ljudje mislili, bo to vodilo v nacizem, mar ne.. vse ostalo je technobable..
AlternativeFacts
01. 12. 2019 12.01
+0
Če ti je problem z 240 znakih nekoga vljudno poslati med Pisane Marjetice, potem ti ni kriv Twitter in njegova omejitev, ampak besedni zaklad, ozioma obča razgledanost....
crazy but true
01. 12. 2019 12.08
+6
Meni ni problem poslati nekoga tja kamor sonce ne sije. Problem je, da v 240 znakih ne bo tisti dojel ZAKAJ ga posiljam tja, kar pomeni da bo mene samo popredalckal v "naci" in bo ratal se bolj ekstremen v svojem razmisljanju, ker je sedaj "zrtev" krivicnega napada nerazgledanca...
AlternativeFacts
01. 12. 2019 12.15
-2
Ja to bo... :)) Bodi brez skrbi AI zelo dobro razbere kdo kam spada.
crazy but true
01. 12. 2019 12.29
+2
Itak da loci leve in desne. To je enostavno, zgolj pogledas kaksne besede uporablja in ti je jasno. In tocno to je problem.. kdo doloca kdo je "bad guy". Ekstremno desnico vsi normalni zavracajo, kaj pa ekstremno levico?
AlternativeFacts
01. 12. 2019 12.45
crazy but true
01. 12. 2019 13.02
-1
AlternativeFacts
01. 12. 2019 13.04
Ti nisi AI in si zato tako kot jaz obremenjen z lastnim zacementiranim prepričanjem, ki pa je lahko pravilno ali totalno zgrešeno....
crazy but true
01. 12. 2019 13.19
+3
Jest sledim logiki znanstvene metode v iskanju resnice.. jest nisem ideolosko zabetoniran nikamor. Ce bojo levicarji predlagali nekaj pametnega in koristnega jih bom podpru, ravno tako kot bom podpru desnicarje ce to naredijo..
AlternativeFacts
01. 12. 2019 13.23
"Jest sledim logiki znanstvene metode v iskanju resnice.. "....Oh daj mi potem znanstveno razloži, kaj je resnica. recimo na primeru na pol polnega kozarca?
crazy but true
01. 12. 2019 13.33
+1
Kozarec je 50% napolnen. Mogoce bi nucal v soli ucne ure "socutja do zivali" da bi to razumel?
AlternativeFacts
01. 12. 2019 13.44
Kaj pa če je na pol prazen? Da ti sočutno pokažem zakaj...Ti tankaš bencin takrat ko je rezervoar na pol polen ali ko je napol prazen? ....Ali še drug vidik, kaj pa če je v kozarcu samo tekočina?
antilevi?ar
01. 12. 2019 14.23
-1
Do sedaj se govori najmanj o 9 tipih inteligence, matematično-logična je le ena izmed teh
BUONcaffee
01. 12. 2019 11.49
+0
Hekerji bodo sprožili pravo katastrofo z temi roboti. Kot danes počnejo z računalniki, a posledice bodo katastrofalne, sploh če bo samovozeče letalo trčilo v kako stavbo ali podobno.
BUONcaffee
01. 12. 2019 11.47
-4
AI bo zagotovo imel antivirusni program.
AlternativeFacts
01. 12. 2019 12.17
+1
Zakaj bi AI moral imeti antivirusni program?
antilevi?ar
01. 12. 2019 14.26
-1
Zakaj elita rabi vojsko in policijo? Pa, da se zavaruje pred nami maso "neinteligentnih" bitij, ki jim strežemo po njihovem stilu življenja, čutijo se ogrožene. Tudi AI se bo prej ali slej ukvarjala s temi vprašanji.
crazy but true
01. 12. 2019 11.46
+1
Mi lahko kdo razlozi zakaj jest s tem "sirim sovrazni govor"? Komentiranje na naših portalih je moderirano in deluje v skladu s pravili, ki določajo njihovo objavo.Vaš komentar ni v skladu s temi pravili in smo ga zato tudi izbrisali. Izbrisan komentar: V racunalnik lahko ze damo program in informacije in bo potem odgovoril na vprasanja. Samo, kaj pomaga ce ljudje hocejo slisati "lepe lazi" in ne resnice. Npr.. google se je lotil "problema diskriminacije zensk" na njihov nacin. Ker so google so razvili kompleksen program, ki je uposteval vse okoliscine.. ko so ga zagnali, jim je program povedal da je v googlu gromozanska diskriminacija. Na tisoce ljudi je bilo premalo placano za svoje delo. Tezava je bila samo v tem, da so bili premalo placani delavci moski. Ups. Isto je z nasimi "fdv novinarji". Povsod vidijo naciste in "sovrazni govor", pozabijo pa da obstaja ekstremni pol tudi na l evi strani in da mogoce oni niso na sredini, ampak so levi.. no, v tem primeru je treba "novico" prikriti, zamegliti, lagati, propagando nabijati, mar ne? Jebes resnico.. Pravila za objavo komentarjev si poglejte TUKAJ. Lep pozdrav, uredništvo portalov POP TV in Kanala A
reakcionar
01. 12. 2019 11.44
+4
V sloveskem primeru pa komunista.
crazy but true
01. 12. 2019 11.47
+2