AUTOR BESTSELLERA 'SAPIENS' Umjetna inteligencija mogla bi uzrokovati katastrofalnu financijsku krizu

Umjetna inteligencija
Pixabay

Umjetna inteligencija mogla bi uzrokovati financijsku krizu s “katastrofalnim” posljedicama, smatra povjesničar i pisac Yuval Noah Harari, koji kaže da sofisticiranost tehnologije otežava predviđanje njezinih opasnosti.

Harari je za Guardian rekao da zabrinutost oko sigurnosnih testiranja modela umjetne inteligencije predviđa sve probleme koje moćan sustav može prouzročiti. Za razliku od nuklearnog oružja, nije postojao jedan “veliki, opasni scenarij” koji bi svi razumjeli, rekao je.

“S umjetnom inteligencijom, ono o čemu govorite je vrlo velik broj opasnih scenarija, svaki od njih ima relativno malu vjerojatnost, ali uzeti zajedno… predstavlja egzistencijalnu prijetnju opstanku ljudske civilizacije.”

Autor Sapiensa, koji je bio istaknuti glas zabrinutosti oko razvoja umjetne inteligencije, rekao je da je prošlotjedna multilateralna deklaracija na globalnom summitu o sigurnosti umjetne inteligencije u Bletchley Parku “vrlo važan korak naprijed” jer su se vodeće vlade okupile kako bi izrazile zabrinutost oko tehnologije i učiniti nešto po tom pitanju.

“Možda je ono što najviše ohrabruje ili daje nadu to što bi mogli pridobiti ne samo Europsku uniju, UK, Sjedinjene Države, nego i vladu Kine da potpišu deklaraciju“, rekao je. “Mislim da je to bio vrlo pozitivan znak. Bez globalne suradnje bit će iznimno teško, ako ne i nemoguće, obuzdati najopasniji potencijal umjetne inteligencije.”

Summit je zaključen sporazumom između 10 vlada – uključujući UK i SAD, ali ne i Kinu – EU i velikih AI tvrtki, uključujući ChatGPT programera OpenAI i Google, o suradnji na testiranju naprednih AI modela prije i nakon njihovog objavljivanja.

Nepredvidljivost i umjetna inteligencija

Harari je rekao da je jedan problem sa sigurnosnim testiranjem modela predviđanje svih problema koje moćan sustav može izazvati. „AI se razlikuje od svih prethodnih tehnologija u ljudskoj povijesti jer je to prva tehnologija koja može sama donositi odluke, koja može sama stvarati nove ideje i koja može sama učiti i razvijati se. Gotovo po definiciji, ljudima je iznimno teško, čak i ljudima koji su stvorili tehnologiju, predvidjeti sve potencijalne opasnosti i probleme.”

Vlade su navele prijetnju od sustava umjetne inteligencije koji pomažu u stvaranju biološkog oružja kada su pokušavale javnosti objasniti njegove opasnosti, rekao je Harari. Ali bilo je i drugih scenarija koji bi se mogli razmotriti. Autor je istaknuo financije kao sektor koji je idealan za sustave umjetne inteligencije – “ovo je idealno polje za AI jer su to samo podaci“. I potencijalni izvor ozbiljne krize koju je stvorila umjetna inteligencija.

“Što se događa ako AI ne samo da dobije veću kontrolu nad financijskim sustavom u svijetu, nego počne stvarati nove financijske uređaje koje samo AI može razumjeti, koje nijedno ljudsko biće ne može razumjeti?” rekao je Harari. Dodajući i da su financijsku krizu 2007.-2008. prouzročili dužnički instrumenti kao što su kolateralizirane dužničke obveze (CDO) koje je malo ljudi razumjelo. Te su stoga bili neadekvatno regulirani.

“AI ima potencijal za stvaranje financijskih uređaja koji su redova veličine složeniji od CDO-a. I samo zamislite situaciju u kojoj imamo financijski sustav koji nijedno ljudsko biće nije u stanju razumjeti, a samim time ni u stanju regulirati“, rekao je. “A onda dođe do financijske krize i nitko ne razumije što se događa.”