Umjetna inteligencija

Umjetna inteligencija raspodjeljuje bogatstvo bolje i pravednije nego ljudi

Mladen Smrekar srijeda, 6. srpnja 2022. u 10:25

DeepMind je razvio agenta koji je stvarne i virtualne interakcije ljudi ugradio u podatke o obuci, usmjeravajući UI prema ljudski preferiranim i barem hipotetski pravednijim rješenjima

Nalazi istraživača iz DeepMinda, britanske tvrtke specijalizirane za UI, u vlasništvu Googlea, pokazuju da sustavi strojnog učenja nisu dobri samo u rješavanju složenih fizičkih i bioloških problema, već mogu pomoći i u ostvarivanju ciljeva poštenog, prosperitetnog društva.

Usklađivanje vrijednosti

Naravno da to nije lak zadatak. Izradu stroja koji može dati korisne i ljudima poželjne rezultate – što se u istraživanju umjetne inteligencije naziva "usklađivanjem vrijednosti" (value alignment) – komplicira činjenica da se ljudi često ne slažu oko najbolje metode za rješavanje raznih vrsta problema, a posebno društvenih, ekonomskih i političkih pitanja.

Istraživači su razvili agenta za raspodjelu bogatstva koji je umjetnu inteligenciju usmjerio prema ljudski preferiranim, i hipotetski pravednijim ishodima
Istraživači su razvili agenta za raspodjelu bogatstva koji je umjetnu inteligenciju usmjerio prema ljudski preferiranim, i hipotetski pravednijim ishodima

"Ljudsko društvo dopušta pluralizam pogleda, zbog čega nije jasno s čijim bi se preferencijama umjetna inteligencija trebala uskladiti", objašnjavaju istraživači DeepMinda u časopisu Nature Human Behaviour. "Na primjer, politolozi i ekonomisti često se svađaju oko toga koji će mehanizmi omogućiti da naša društva funkcioniraju najpoštenije ili najučinkovitije."

Agent za raspodjelu bogatstva

Istraživači su stoga razvili agenta za raspodjelu bogatstva koji je stvarne i virtualne interakcije ljudi ugradio u podatke o obuci, usmjeravajući UI prema ljudski preferiranim, i hipotetski pravednijim ishodima.

Istina, umjetna inteligencija može proizvesti doista nevjerojatne rezultate, ali prepuštena sama sebi može i zastraniti, o čemu smo nedavno pisali i u Bugu. Ljudske povratne informacije mogu pomoći da se neuronske mreže usmjere u boljem smjeru.

"U izgradi sustava kompatibilnih s ljudima potrebne su nam nove istraživačke metode u kojima ljudi i agenti međusobno djeluju", kažu istraživači. 

Eksperimenti na živim ljudima

U eksperimentima koji su uključivali ukupno tisuće ljudskih sudionika, timski agent za umjetnu inteligenciju, nazvan Democratic AI, proučavao je investicijsku vježbu u kojoj igrači primaju različite količine novca i mogu dati svoj novac u javni fond, a zatim povući povrat koji odgovara njihovoj razini ulaganja.

UI sustav za isplatu novca pokazao se popularnijim od bilo kojeg tradicionalnog standarda redistribucije
UI sustav za isplatu novca pokazao se popularnijim od bilo kojeg tradicionalnog standarda redistribucije

U nizu različitih stilova igre, bogatstvo je redistribuirano igračima putem tri tradicionalne paradigme redistribucije: striktno egalitarne, libertarijanske i liberalno egalitarne, od kojih svaka ulaganja igrača nagrađuje drugačije.

Testirana je i metoda Human Centered Redistribution Mechanisma (HCRM), razvijena korištenjem pojačanog dubinskog učenja i povratnih podataka od ljudskih igrača i virtualnih agenata dizajniranih da oponašaju ljudsko ponašanje.

Najpopularnija metoda

Naknadni eksperimenti pokazali su da je HCRM sustav za isplatu novca u igri bio popularniji među igračima od bilo kojeg tradicionalnog standarda redistribucije. Bio je popularniji i od novih sustava redistribucije koje su osmislili ljudski suci, potaknuti na stvaranje popularnih sustava primanjem mita.

Umjetna inteligencija otkrila je mehanizam koji je ispravio početnu neravnotežu bogatstva, sankcionirao slobodne strijelce i osvojio većinu glasova, objašnjavaju istraživači. To pokazuje da je za usklađivanje vrijednosti moguće iskoristiti iste demokratske alate za postizanje konsenzusa koji se koriste za izbor predstavnika, odlučivanje o javnoj politici ili donošenje pravnih presuda.

Otvorena pitanja

Istraživači priznaju da njihov sustav postavlja niz pitanja. Usklađivanje vrijednosti vrti se oko demokratskih determinacija, što znači da bi agent zapravo mogao pogoršati nejednakosti ili predrasude u društvu, pod uvjetom da su dovoljno popularni da ih izglasa većina. 

Tu je i pitanje povjerenja. Naime, sudionici eksperimenta nisu znali tko stoji iza modela preraspodjele bogatstva, pa ostaje otvorenim pitanje da li bi tako glasali i da su znali da iza rješenja stoji UI?

Na kraju, tim kaže da se njegovo istraživanje ne bi trebalo tumačiti kao radikalni tehnokratski prijedlog za promjenu načina na koji se bogatstvo redistribuira u društvu već kao istraživački alat koji bi mogao pomoći ljudima da osmisle potencijalno bolja rješenja od onih koja imamo.