Ljudi u samo 50% slučajeva raspoznaju tko je autor, čovjek ili UI
Novo istraživanje otkriva koliko smo (ne)uspješni u razlikovanju ljudskog od teksta generiranog umjetnom inteligencijom
Tekst generiran umjetnom inteligencijom sve više ulazi u naš svakodnevni život. Automatsko dovršavanje riječi u e-porukama i sadržaj koji generira ChatGPT postaju uobičajeni. Upotreba teksta generiranog umjetnom inteligencijom rapidno raste čak i u kontekstima u kojima očekujemo da ćemo razgovarati s drugim čovjekom, poput online spojeva. Anketa koju je proveo McAfee pokazuje da 31% odraslih planira ili već koristi UI u svojim profilima za spojeve.
Implikacije i rizici
Koje su implikacije i rizici korištenja teksta generiranog umjetnom inteligencijom, posebno u područjima gdje je način na koji se predstavljamo izuzetno važan za to kako nas se doživljava?
"Želim li zaposliti ovu osobu? Želim li izlaziti s tom osobom? Želim li ostati u domu te osobe? To su stvari koje su duboko osobne i koje radimo prilično redovito", kaže Jeff Hancock, profesor komunikacije na Fakultetu humanističkih znanosti i nauke na Sveučilištu Stanford, osnivač tamošnjeg Laboratorija društvenih mreža i član Instituta za umjetnu inteligenciju usmjerenu na čovjeka (HAI).
Ljudskije od čovjeka
Hancock i njegovi suradnici pokrenuli su istraživanje ovog problema pokušavajući otkriti koliko smo uspješni u razlikovanju ljudskog teksta od teksta generiranog umjetnom inteligencijom na OKCupidu, AirBNB-u i Guru.com. Dobiveni rezultati bili su zapanjujući: sudionici studije mogli su razlikovati ljudski tekst od teksta umjetne inteligencije samo s 50 do 52% točnosti; to odgovara slučajnosti kojom ćete pogoditi na koju će stranu pasti bačeni novčić.
Činjenica je, upozorava Hancock, da možemo stvoriti umjetnu inteligenciju "koji se čini više ljudskom od samih ljudi jer njen jezik možemo optimizirati tako da iskoristi sve prednosti pretpostavki koje imaju ljudi. To zabrinjava jer stvara rizik da se ti strojevi mogu predstavljati kao više ljudi od nas samih".
Tri platforme
Otprije je poznato da su ljudi općenito loši u otkrivanju prevare jer računaju na povjerenje. Taj su princip istraživači odlučili iskušati na generativnoj umjetnoj inteligenciji. Nakon što su sudionicima predstavili uzorke teksta na tri platforme društvenih mreža, istraživači su otkrili da, iako nismo uspješni u razlikovanju između umjetne inteligencije i teksta koji je stvorio čovjek, u tome nismo niti potpuno nasumični.
Svi se oslanjamo na slične i na sličan način netočne pretpostavke temeljene na razumnoj intuiciji i zajedničkim jezičnim znakovima. Na primjer, visoka gramatička ispravnost i upotreba zamjenica u prvom licu često su se netočno pripisivali tekstu koji je stvorio čovjek.
Upućivanje na obiteljski život i korištenje neformalnog, razgovornog jezika također su, netočno, pripisani tekstu koji su stvorili ljudi.
Nema razlike
Istraživači nisu primijetili nikakvu značajnu razliku u stopama točnosti po platformama, što znači da su sudionici činili podjednake pogreške u ocjenjivanju odlomaka teksta u različitim kontekstima, od online upoznavanja do profesionalnih prepiski.
Količina sadržaja generiranog umjetnom inteligencijom mogla bi premašiti sadržaj koji generiraju ljudi već za nekoliko godina, a to bi stvarno moglo poremetiti naš informacijski ekosustav, smatraju istraživači. A kad se to dogodi, potkopat će se postojeći, usvojeni odnosi, što pak može smanjiti povjerenje jednih u druge.
Moguća rješenja
Istraživači vjeruju da ljudi mogu postati bolji u razlikovanju onoga što je napisala umjetna inteligencija od onoga što je stvorio čovjek. Jedna od predloženih ideja je umjetnoj inteligenciji dati prepoznatljiv naglasak.
"Kad odete u Englesku, možete prepoznati odakle su ljudi; čak i u SAD-u možete reći je li netko s istočne obale, iz Los Angelesa ili sa Srednjeg zapada. I to ne zahtijeva nikakav kognitivni napor, to jednostavno znate", kaže Hancock koji smatra da bi se naglasak mogao spojiti s tehničkim rješenjima poput UI vodenog žiga. A tamo gdje je provjera autentičnosti doista važna, strojevi koji se sami otkrivaju mogli bi postati norma.
Hancock priznaje da opasno kaskamo s podučavanjem o rizicima društvenih mreža, ali je i dalje optimističan: "Fokusiramo se na tehnologiju, a zanemarujemo činjenicu da smo mi ljudi ti koji je koristimo i prilagođavamo joj se. Nadam se da možemo smisliti načine kako ćemo je kontrolirati, stvoriti norme pa čak i zakone koji ograničavaju negativnu upotrebu tehnologije", nada se Hancock.