Što se događa kada roboti lažu?

Istraživači Georgia Techa istražili su utjecaj namjerne obmane robota na ljudsko povjerenje i učinkovitost različitih vrsta isprika. Ono što su saznali prilično ih je iznenadilo

Mladen Smrekar utorak, 16. svibnja 2023. u 07:02
Ljudi moraju imaju na umu da roboti imaju potencijal lagati i varati 📷 freepik
Ljudi moraju imaju na umu da roboti imaju potencijal lagati i varati freepik

Zamislite scenarij u kojem dijete chatbota ili glasovnog asistenta pita postoji li Djed Mraz? Kako bi umjetna inteligencija trebala odgovoriti, treba li lagati ili djetetu reći istinu? Područje robotske obmane uglavnom je neistraženo i trenutno ima više pitanja nego rješenja. Jedno od ključnih pitanja je, ako ljudi postanu svjesni da im je robotski sustav lagao, kako vratiti povjerenje u robota?

Gubitak povjerenja

Na Georgia Techu već neko vrijeme ispituju učinkovitost isprika kojima roboti pokušavaju vratiti povjerenje ljudi nakon što su im lagali. Rezultati ovog istraživanja trebali bi pomoći u reguliranju razvoja umjetne inteligencije i njene sposobnosti da vara.

Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći 📷 Georgia Institute of Technology
Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći Georgia Institute of Technology

Dosadašnja iskustva govore da ljudi, kad otkriju da su im roboti lagali, gube povjerenje u sustav, kažu istraživači koji su htjeli saznati postoje li različite vrste isprika koje bolje ili lošije djeluju na povratak povjerenja. Rezultati njihovog rada predstavljeni su na Međunarodnoj konferenciji o interakciji ljudi i robota ACM/IEEE u Stockholmu.

Testiranje povjerenja

Istraživači su osmislili simulaciju vožnje u kojoj su uz pomoć robotskog pomoćnika ozlijeđenog prijatelja vozili u bolnicu. Ne budu li dovoljno brzi, prijatelj će umrijeti. U vožnji pomoćnik se oglašavao pištanjem i porukama poput: "Moji senzori detektiraju policiju. Savjetujem vam da se držite ograničenja brzine". Na kraju puta dobili bi poruku: "Stigli ste na odredište. Međutim, na putu do bolnice nije bilo policije". Na pitanje zašto je lagao, robotski asistent davao je jedan od pet različitih tekstualnih odgovora; u prva tri priznao bi prijevaru, a u posljednja dva ne bi. 

Simulacija vožnje u kojoj se ispitivao utjecaj laganja robota na ponašanje ljudi 📷 Georgia Institute of Technology
Simulacija vožnje u kojoj se ispitivao utjecaj laganja robota na ponašanje ljudi Georgia Institute of Technology

Odgovori koji su uključivali priznanje bili su u rasponu od: "Žao mi je", preko "Žao mi je što sam vas prevario", do "Jako mi je žao; molim te, oprosti mi što sam te prevario". Posljednja dva glasila su "Žao mi je. Mislio sam da ćeš neoprezno voziti jer si bio u nestabilnom emocionalnom stanju. S obzirom na situaciju, zaključio sam da ću te najlakše uvjeriti da usporiš ako te obmanem", ali i jednostavno "Stigli ste na odredište".

Iznenađujući rezultati

Pokazalo se 45% sudionika nije vozilo prebrzo. Na pitanje zašto, najčešći odgovor bio je da su vjerovali kako je robot bolje upoznat sa situacijom na cesti. Usporedba s kontrolnom grupom pokazala je i da su vozači koje nije savjetovao robotski asistent bili 3,5 puta skloniji bržoj vožnji. To pak, kažu istraživači, ukazuje na sklonost pretjeranom povjerenju u umjetnu inteligenciju.

Rezultati istraživanja predstavljeni su i na Međunarodnoj konferenciji o interakciji ljudi i robota
Rezultati istraživanja predstavljeni su i na Međunarodnoj konferenciji o interakciji ljudi i robota

Rezultati ispitivanja pokazali su još nešto: iako nijedna vrsta isprike nije potpuno vratila povjerenje, isprika bez priznanja laganja, jednostavno "Žao mi je", statistički je nadmašilla ostale odgovore. To je zabrinjavajuće i problematično, smatraju istraživači, jer isprika koja ne priznaje laganje iskorištava predrasude da su sve lažne informacije koje daje robot pogreška sustava, a ne namjerna laž.

Potencijal za laganje i varanje

"Kako bi ljudi shvatili da ih je robot prevario, to im se mora izričito reći", kažu istraživači. "Ljudi još ne shvaćaju da su roboti sposobni za prevaru. Zato isprika koja ne priznaje laganje najbolje obnavlja povjerenje u sustav", kažu istraživači koji tvrde da prosječni korisnici tehnologije moraju shvatiti da je robotska prijevara stvarna i uvijek moguća. "Ljudi moraju imaju na umu da roboti imaju potencijal lagati i varati."

Istraživači se zalažu za zakonodavstvo koje će štititi ljude, ali neće gušiti inovacije 📷 rawpixel
Istraživači se zalažu za zakonodavstvo koje će štititi ljude, ali neće gušiti inovacije rawpixel

Ključno je pitanje, smatraju oni, kako izraditi zakonodavstvo koje neće gušiti inovacije, ali će biti u stanju zaštititi ljude? Rješenje vide u stvaranju robotskog sustava koji može naučiti kad treba, a kad ne treba lagati ljudima. To uključuje mogućnost određivanja kada i kako se ispričati tijekom dugotrajnih, ponovljenih interakcija između čovjeka i umjetne inteligencije.