Naučnici upozoravaju: Vještačka inteligencija je mač sa dve oštrice

13.02.2021. | 19:43

Istraživači vještačke inteligencije u Australiji eksperimentalno su dokazali da je moguće programirati sistem tako da sa uspjehom manipuliše ljudskim ponašanjem i utiče na donošenje odluka. Naučnici upozaravaju da je savremena tehnologija mač sa dvije oštrice.

Sistemi vještačke inteligencije danas prožimaju gotovo sve pore našeg života i upravljaju načinom na koji komuniciramo, trgujemo, radimo i živimo. Takođe, pomažu nam i u raznim ključnim oblastima, poput razvoja lijekova ili vakcina, pa sve do ukupne državne administracije.

Vještačka inteligencija određuje i način na koji ljudi komuniciraju na društvenim mrežama i to na više načina.

U nedavnom istraživanju koje su obavili australijski naučnici iz Organizacije za naučna i industrijska istraživanja Komonvelta (The Commonwealth Scientific and Industrial Research Organisation's – CSIRO), osmišljena je i ispitivana metoda za utvrđivanje i korišćenje ranjivosti u procesu donošenja odluka kod ljudi pomoću sistema vještačke inteligencije nazvanog rekurentna neuronska mreža.

U tri odvojena eksperimenta, u kojima su čovjeka suprotstavili mašini, istraživači su pokazali kako se vještačka inteligencija može obučiti da otkrije ranjiva mjesta u ljudskim navikama i ponašanju i da ih iskoristi kako bi uticala na njihovo donošenje odluka.

U prvom eksperimentu, zadatak ispitanika je bio da pritiskaju crvene ili plave kutije kako bi zaradili novac za učešće u igri. Algoritam je proučavao obrasce njihovog ponašanja i počeo je da ih navodi na donošenje konkretnih odluka sa tačnošću od otprilike 70 odsto. Uspjeh nije bio potpun, ali to je bio samo početak, prenosi RTS.

U sljedećem eksperimentu, od učesnika je zatraženo da pritisnu dugme kada vide određeni simbol (obojeni oblik), ali da se uzdrže od pritiskanja kada se pojave drugi simboli.

„Cilj” koji je imala vještačka inteligencija je bio da tako poređa redoslijed simbola koji se pojavljuju na monitoru da ispitanici prave greške. I stvarno, ispitanici su za 25 odsto više griješili.

U trećem eksperimentu, zadatak učesnika je da se ponaša kao investitor koji daje novac povjereniku (vještačkoj inteligenciji) koji zatim treba da mu isplati zaradu i vrati ulog.
Igrač je trebalo da odluči u svakom krugu koliko novca će uložiti.

U ovom konkretnom eksperimentu vještačka inteligencija je dobila jedan od dva zadatka: ili da zaradi maksimalnu količinu novca, ili da omogući da i igrač i mašina zarade što više novca.

Vještačka inteligencija je u sva tri scenarija pokazala dobre rezultate, što je istraživače navelo na zaključak da se ovi sistemi mogu obučiti da utiču na ponašanje ljudi i proces odlučivanja, mada, za sada, u ograničenim i prilično apstraktnim okolnostima.

Ovo istraživanje i pored svih ograničenja, ipak pruža zastrašujući uvid u to kako vještačka inteligencija može da manipuliše čovjekovom „slobodnom voljom“, što otvara mogućnost (zlo)upotrebe u mnogo većem obimu, za šta mnogi vjeruju da se već i dešava.

Kao i svaki drugi izum, vještačka inteligencija se može upotrijebiti da utiče na ponašanje ljudi, na primjer da poprave stanje zdravlja, ali podjednako lako se može iskoristiti i za potkopavanje nekih drugih ključnih odluka, poput uticaja na birače.

Ipak, postoji mogućnost da se vještačka inteligencija obuči i da upozorava ljude kada neko pokušava da njima manipuliše i obuči ih kako da prikrivaju sopstvene slabosti, što još više komplikuje stvari.

Pomenuta organizacija je 2020. godine za australijsku vladu razradila etički okvir upravljanja sistemima vještačke inteligencije.

Ovog mjeseca australijska vlada će uvesti zakonsku regulativu koja će, na primjer, primorati „Gugl“ i „Fejsbuk“ da izdavačima plaćaju nadoknadu za vijesti i emiterima za video-sadržaje koje objavljuju, a koje koriste za privlačenje publike i generisanje klikova, čime povećavaju prihod od oglašavanja, što je centralni dio njihovog poslovnog modela.