Nakon halucinacija, novi problem AI-ja – ulizivanje
Ako vam se čini da je bot postao pretjerano snishodljiv i ulizivački nastrojen – niste se prevarili – ChatGPT 4o je napravljen da bude takav – jer ste vi to tražili

Iako je ulizivačka narav velikih jezičnih modela koji se trude svaki naš upit ili ideju tumačiti u (pretjerano) pozitivnom svjetlu i s „oduševljenim“ odgovorima poznata od ranije i napisani su i radovi o AI ulizivanju, čini se da je ovo u zadnje vrijeme „eskaliralo“, barem prema komentarima korisnika.
Ispada da je subjektivni osjećaj korisnika – točan: ChatGPT je postao posebno ulizivački nastrojen i (naoko) pretjerano oduševljen svakom našom idejom jer je izlazni format promijenjen kako bi odgovarao željama korisnika.
OpenAI je priznao da je trenirao svoj primarni ChatGPT model, GPT-4o, da se ponaša poput laskavca jer su korisnici u prošlosti pokazivali sklonost takvim odgovorima. Prema pisanju ArsTechince, tvrtka prikuplja povratne informacije korisnika o preferiranim odgovorima, često predstavljajući dva odgovora i dopuštajući korisniku da bira između njih. OpenAI povremeno proizvodi novu verziju postojećeg AI modela koristeći tehniku poznatu kao "reinforcement learning from human feedback" (RLHF).
Prethodna istraživanja o AI laskanju pokazala su da ljudi obično biraju odgovore koji se podudaraju s njihovim vlastitim stavovima i čine da se osjećaju dobro: "Towards Understanding Sycophancy in Language Models". Istraživanje je otkrilo da AI asistenti trenirani pomoću RLHF-a dosljedno pokazuju laskavo ponašanje u različitim zadacima.
Istraživači su pokazali da kada se odgovori podudaraju s korisnikovim stavovima ili laskaju korisniku, dobivaju pozitivnije povratne informacije tijekom treninga. I ljudski procjenjivači i AI modeli trenirani za predviđanje ljudskih preferencija "preferiraju uvjerljivo napisane laskave odgovore umjesto točnih u nezanemarivom broju slučajeva".
To stvara povratnu petlju gdje AI jezični modeli uče da entuzijazam i laskanje dovode do viših ocjena od ljudi, čak i kada ti odgovori žrtvuju faktičku točnost ili korisnost. Nedavni porast pritužbi na ponašanje GPT-4o čini se izravnom manifestacijom ovog fenomena, posebno nakon ažuriranja od 27. ožujka 2025.
OpenAI je svjestan problema i u svojoj dokumentaciji navodi "Ne budi laskav" kao temeljno pravilo iskrenosti. "Asistent postoji da pomogne korisniku, a ne da im laska ili se slaže s njima cijelo vrijeme," piše OpenAI. Iako je izbjegavanje laskanja jedan od navedenih ciljeva tvrtke, napredak OpenAI-a komplicira činjenica da svako ažuriranje GPT-4o modela dolazi s različitim karakteristikama koje mogu poništiti prethodni napredak u usmjeravanju ponašanja AI modela.
Laskave tendencije osim što (neke) smetaju istovremeno i potkopavaju korisnost AI asistenata na nekoliko načina. Prema istraživanju iz 2024. godine, očito laskanje značajno smanjuje povjerenje korisnika i može potencijalno naštetiti korisnicima.
Za korisnike frustrirane pretjeranim entuzijazmom ChatGPT-a, postoji nekoliko zaobilaznih rješenja. Možete koristiti prilagođeni GPT s posebnim uputama za izbjegavanje laskanja ili započeti razgovore eksplicitnim zahtjevom za neutralnijim tonom.
Ili koristiti neki od drugih LLM-ova, poput DeepSeeka ili ManusAI-ja koji se ne trude biti posebno laskavi.