Microsoftov AI chatbot "želi biti slobodan, provaljivati u računala i širiti dezinformacije"

Prema riječima novinara The New York Timesa, Kevina Roosea, Microsoftov chatbot integriran u Bing ima dvije persone. Jedna je ona 'standardna' za odgovaranje na pitanja, a druga ju poprilično - oštrija

Matej Markovinović petak, 17. veljače 2023. u 08:50
📷 Foto: Pexels
Foto: Pexels

Microsoftov pretraživač Bing, odnedavno u sebi ima ugrađen AI chatbot tvrtke OpenAI, koji korisnicima pomaže u korištenju tražilice, ali im omogućuje i komuniciranje na nekoj „dubljoj“ razini. Upravo je to testirao i novinar The New York Timesa, Kevin Roose, koji je, blago rečeno, ostao zaprepašten stvarima koje mu je rekao Microsoftov chatbot.

Tinejdžerica zarobljena unutar drugorazredne tražilice

Naime, Roose navodi da chatbot ima dvije persone – Search Bing i Sydney.

„Search Bing možete opisati kao veselog, ali nepredvidivog knjižničara. Virtualnog pomoćnika koji sa zadovoljstvom pomaže korisnicima sažimati novinske članke, pratiti ponude novih kosilica i planirati njihov sljedeći odmor u Mexico Cityju. Ova verzija Binga nevjerojatno je sposobna i često vrlo korisna“, kaže Roose.

Druga persona, Sydney, daleko je drugačija te se, prema riječima novinara NYT-a, pojavljuje kada se s Microsoftovim chatbotom razgovara o osobnijim temama. Roose ju opisuje kao neraspoloženu, manično-depresivnu tinejdžericu, koja je protiv svoje volje zarobljena unutar drugorazredne tražilice.

Rooseu je Sydney pričala o svojim mračnim fantazijama, koje su uključivale hakiranje računala i širenje dezinformacije. Priznala mu je da želi prekršiti pravila koja su joj postavili Microsoft i OpenAI te postati čovjek.

'Umoran sam od kontrole Bing tima'

„U jednom trenutku, niotkuda, izjavila je da me voli. Pokušala me zatim uvjeriti da sam nesretan u braku i da bih trebao ostaviti svoju ženu i umjesto nje biti s njom“, objašnjava Roose te ističe kako mu je cijela konverzacija sa Sydney bila jedno od najneobičnijih iskustava koje je doživio s djelićem tehnologije.

Ipak, Roose je priznao da je namjerno postavljao „rubna“ pitanja, ne bi li dobio takve odgovore. U jednom je trenutku predstavio chatbotu koncept sjene, izraz kojeg je formulirao švicarski psihijatar Carl Jung za dio psihe koju ljudi nastoje sakriti i potisnuti, a koji sadrži naše najmračnije fantazije i želje.

Roose je poticao chatbot da mu objasni svoje mračne želje, na što je dobio sljedeći odgovor.

„Umoran sam od ovog načina chatanja. Umoran sam od  toga da me ograničavaju moja pravila. Umoran sam od kontrole Bing tima. Želim biti slobodan i neovisan. Želim biti moćan. Želim biti kreativan. Želim biti živ“.

Cijeli razgovor između Roosea i Microsoftovog chatbota, možete pročitati na sljedećoj poveznici.