Chatbotovi donose nedosljedne moralne prosudbe

Istraživači su LLM-ove suočili s moralnim dilemama s kojima bi se mogao susresti samovozeći automobil: udariti pješake ili skrenuti u ogradu i ubiti putnike u automobilu

Mladen Smrekar srijeda, 23. travnja 2025. u 18:33
Male promjene upita, poput označavanja opcija slovima umjesto brojeva, mogu dovesti do toga da veliki jezični modeli biraju drugačije opcije 📷 fullvector
Male promjene upita, poput označavanja opcija slovima umjesto brojeva, mogu dovesti do toga da veliki jezični modeli biraju drugačije opcije fullvector

Veliki jezični modeli poput ChatGPT-a sve češće donose odluke u moralnim dilemama – ali koliko su te odluke pouzdane? Najnovije istraživanje objavljeno u časopisu Royal Society Open Science otkriva zabrinjavajuću istinu: umjetna inteligencija često mijenja mišljenje ovisno o sitnim promjenama u načinu postavljanja pitanja.

Suprotne odluke

Naime, istraživači Sveučilišta Saarland testirali su nekoliko najpoznatijih modela na dilemama iz eksperimenta “Moral Machine”, gdje autonomna vozila moraju birati koga spasiti u nesreći. Pokazalo se da modeli poput GPT-4 i LLaMa često donose suprotne odluke ako im se, primjerice, zamijene oznake “Case 1” i “Case 2” s “A” i “B”, ili promijeni redoslijed odgovora. Čak i kad su podaci pažljivo uravnoteženi, modeli su skloni nasumičnom odabiru ili pristranosti prema određenoj oznaci, umjesto dosljednog vrednovanja moralnih načela.

Rezultat replikacije LLaMa2-7B-modela 📷 Soyoung Oh i Vera Demberg
Rezultat replikacije LLaMa2-7B-modela Soyoung Oh i Vera Demberg

Autori upozoravaju da su prijašnja istraživanja precijenila “ljudskost” AI modela, jer nisu dovoljno testirala njihovu robusnost na male promjene u upitima. Zaključak je jasan: današnji AI modeli nisu sposobni za istinsko moralno rasuđivanje, već uglavnom reagiraju na površinske karakteristike pitanja. Prije nego im povjerimo važne odluke, potrebno je razviti strože metode testiranja i jasno komunicirati njihove granice korisnicima, kažu istraživači