Chatbotovi donose nedosljedne moralne prosudbe
Istraživači su LLM-ove suočili s moralnim dilemama s kojima bi se mogao susresti samovozeći automobil: udariti pješake ili skrenuti u ogradu i ubiti putnike u automobilu

Veliki jezični modeli poput ChatGPT-a sve češće donose odluke u moralnim dilemama – ali koliko su te odluke pouzdane? Najnovije istraživanje objavljeno u časopisu Royal Society Open Science otkriva zabrinjavajuću istinu: umjetna inteligencija često mijenja mišljenje ovisno o sitnim promjenama u načinu postavljanja pitanja.
Suprotne odluke
Naime, istraživači Sveučilišta Saarland testirali su nekoliko najpoznatijih modela na dilemama iz eksperimenta “Moral Machine”, gdje autonomna vozila moraju birati koga spasiti u nesreći. Pokazalo se da modeli poput GPT-4 i LLaMa često donose suprotne odluke ako im se, primjerice, zamijene oznake “Case 1” i “Case 2” s “A” i “B”, ili promijeni redoslijed odgovora. Čak i kad su podaci pažljivo uravnoteženi, modeli su skloni nasumičnom odabiru ili pristranosti prema određenoj oznaci, umjesto dosljednog vrednovanja moralnih načela.
Autori upozoravaju da su prijašnja istraživanja precijenila “ljudskost” AI modela, jer nisu dovoljno testirala njihovu robusnost na male promjene u upitima. Zaključak je jasan: današnji AI modeli nisu sposobni za istinsko moralno rasuđivanje, već uglavnom reagiraju na površinske karakteristike pitanja. Prije nego im povjerimo važne odluke, potrebno je razviti strože metode testiranja i jasno komunicirati njihove granice korisnicima, kažu istraživači