Fake news u slučaju Notre-Damea: Prva velika greška umjetne inteligencije
Umjetna je inteligencija poražena u bitki za Notre-Dame de Paris. Barem ona koju je upogonio moćni YouTube kako bi suzbio rastuću poplavu lažnih vijesti kojima se nastoji diskreditirati mahom ključne događaje iz ljudske povijesti poput spuštanja na Mjesec.
Ali i one suvremene poput ubojstava u Novom Zelandu ili drugdje. Sredinom prošle godine YouTube uveo je sustav koji će kao izvor informacija za takve teme koristiti provjerene izvore poput Encyclopedije Britannice ili Wikipedije kako bi smanjio mogućnost da se događaje poput spomenutih krivo atribuira.
No, u slučaju požara u Parizu koji je teško oštetio jednu od najpoznatijih svjetskih znamenitosti, dogodilo se upravo to - pogrešno kontekstualiziranje prizora vatre koja je gutala Notre-Dame. Ispod videa koji su prikazivali tragediju pojavile su se informacije o rušenju newyorških Blizanaca umjesto informacija o bogatoj i slavnoj povijesti jedne od najpoznatijih svjetskih crkava. Jasno, vijest je ostala u sjeni događaja koji ju je i generirao, no nije ostala nezamijećenom, odnosno dobro je došla protivnicima primjene umjetne inteligencije. Jer, ona je ovom prilikom ozbiljno zakazala dajući štofa onima koji čak i u strogo tehnološkim stvarima ipak daju prednost čovjeku prije stroja, odnosno računala ili u ovom slučaju algoritma.
Sustav koji je trebao spriječiti lažne vijesti, u slučaju Notre-Dame ga je - proizveo. Iako su se mnoge tehnološke kompanije ipak odlučile na angažiranje tisuća moderatora kako bi se efikasnije borile protiv dezinformacija i sličnih štetnih pojava, vodeći u Silicijskoj dolini ostaju pri tvrdnji da je primjena računala efikasnija i brža. -
Duboko smo ožalošćeni požarom koji se dogodio u katedrali Notre-Dame. Prošle smo godine predstavili informacijske panele s poveznicama na vanjske izvore poput Encyclopedije Britannice i Wikipedije za one teme koje su često predmet dezinformiranja. Ti se paneli aktiviraju algoritmom, no naši sustavi ponekad pogrešno odluče. Onemogućili smo te panele za prijenose povezane s požarom, službena je izjava YouTubea koji je objavio kako će u sljedećih nekoliko godina u takve sustave uložiti još 25 milijuna dolara.
Za mišljenje o pogrešci koja se dogodila u sustavu kakav je YouTubeu pitali smo našeg stručnjaka za robotiku i umjetnu inteligenciju prof.dr.sc. Bojana Jerbića s Fakulteta strojarstva i brodogradnje u Zagrebu. - Ne radi se o tako jednostavnoj stvari kako se to možda u prvi tren čini. YouTube uveo je sustav kako bi smanjio broj lažnih vijesti na svojoj platformi. Taj sustav koristi kognitivni bias, a riječ je o sustavnoj pogrešci u tumačenju dobivenih ili prikupljenih podataka koji utječu na naše mišljenje. Ili, u ovom slučaju, ponašanje YouTubeova algoritma, kaže dr. Jerbić pojašnjavajući da smo nečemu takvom izloženi pri svakodnevnom korištenju, primjerice, društvenih mreža.
Facebook je odličan primjer za tu vrstu pogreške. Nisu svi na toj društvenoj mreži, pa ako kao relevantno uzmemo mišljenje samo onih koji jesu na Facebooku, očito je da ćemo izvući pogrešne zaključke, kaže profesor Bojan Jerbić.
- Facebook je za to odličan primjer. Nisu svi na toj društvenoj mreži, pa ako kao relevantno uzmemo mišljenje samo onih koji su na Facebooku očito je da ćemo izvući pogrešne zaključke, kaže naš stručnjak. Zanimalo nas je može li se takvo što učiniti i (zlo)namjerno.
Ako je u pitanju kakav virus, tada je moguće da ga netko programira tako da on u sustav unosi ogromnu količinu podataka koji će utjecati na taj kognitivni bias, odnosno pristranost i tako natjerati sustav, dakle njegovu umjetnu inteligenciju da donese krivi zaključak što bi moglo rezultirati objavom pogrešnih vijesti ili barem onih izvan konteksta događaja. Ne bi bilo prvi put da se takvo što dogodi pa se ni u ovom slučaju to ne može isključiti - objašnjava prof. Jerbić.
Poznati hrvatski stručnjak za računalnu sigurnost Marko Rakar također i a objašnjenje.
- Sve je pitanje strojnog učenja. Algoritam radi ono za što ga se uvježba. Apsolutno ne vjerujem da je situacija izazvana namjerno. Taj je YouTubeov algoritam uvježbavan na brdu takvih uzoraka, a kako su primjeri u sebi imali ugrađenu pristranost, dakle bias, on je prepoznao ono za što je bio uvježbavan, misli Rakar naglašavajući da je kognitivna pristranost doista veliki problem kod algoritama.
- Tako se doista nije moglo raditi o nečemu namjernom. YouTube radi na prevelikom uzorku i s previše kontrole kvalitete da bi takvo što bilo vjerojatno. Način da se to riješi jest primjena objektivnog seta podataka za uvježbavanje tog algoritma - konkretan je Rakar, dodajući da je videomaterijal povezan s požarom u Parizu često potjecao s provjerenih izvora vijesti, no YouTubeov algoritam ipak nije uočio razliku. I tada je atribucija bila kriva.
TEORIJE ZAVJERE
Nije teško pogoditi za koje su sadržaje najzainteresiraniji teoretičari zavjere. Ubojstvo J. F. Kennedyja, spuštanje na Mjesec i rušenje newyorških Blizanaca vjerojatno će zauvijek ostati vodeće teme u tom "sektoru" bez obzira na argumente koji opovrgavaju mogućnost zavjere. Najpoznatiji uradak na YouTubeu vezan uz 11. rujna i rušenje tornjeva Svjetskog trgovinskog centra jest nezavisni dokumentarac Loose Change. Bilo ga je na YouTubeu sva sila, sada ćete pronaći tek nekoliko linkova, no reference na taj dugi uradak koji nastoji dokazati zavjeru vezanu uz udar aviona u tornjeve brojne su, film je imao i reizdanje. Linkovi na kojima su rasprave ili rekonstrukcije događaja dosežu i nekoliko milijuna. Ipak, to je malo u odnosu na Zapruderov film sa stvarnim ubojstvom Kennedyja koji ima gotovo 20 milijuna klikova.
vecernji.ba