Umjetna inteligencija

AI alati mijenjaju klasične načine pretraživanja, pisanja i izdavanja znanstvenih radova

Igor Berecki nedjelja, 15. listopada 2023. u 07:15

Znanstvena zajednica je istovremeno ushićena i zabrinuta zbog brojnih kontroverzi vezanih uz sve veći udio korištenja generativnih alata umjetne inteligencije u svrhu pisanja i recenziranja znanstvenih radova

Kako je to vrlo slikovito formulirao Michael Eisen, računalni biolog (da, 'computational biologist' je postojeća struka!) sa Sveučilišta Berkeley i glavni urednik časopisa eLife, „…budimo iskreni: nijedan znanstvenik nije posebice željan pisanja radova; ono čime se zaista želi baviti su eksperimenti i istraživanja“.

I zaista, pisanje radova jeste nezaobilazan dio znanstvenog procesa, ali onaj mrski, dosadni, nezanimljiv dio kojega se redovito odrađuje preko volje, posebice njegove pripremne radnje: prikupljanje referenci, potraga za radovima drugih istraživača i meta-analitičke usporedbe velikog broja podataka i rezultata koji se u njima nalaze. A i kada se jednom dovrši mukotrpno pretraživanje i prekopavanje po tuđim radovima, sâm čin pisanja i pripreme za objavu vlastitog znanstvenog papira je sve samo ne esencija zabave i užitka.

Michael Eisen
Michael Eisen

Veliki jezični modeli i generativna umjetna inteligencija

Eisen je tek jedan od sve većeg broja suvremenih znanstvenika koji predviđaju da bi generativni alati umjetne inteligencije mogli iz temelja promijeniti prirodu znanstvenog rada i izdavaštva.

Kao ilustraciju te tvrdnje, uzmimo (ne nužno izmišljen) primjer nekog liječnika-kliničkog istraživača koji se, recimo, bavi praćenjem i analizom učinaka novih terapijskih metoda na neku kroničnu boljku. Stručnjak je u svojoj subspecijalizaciji, ali ponešto „tvrd“ u vještinama pisanog komuniciranja svojih rezultata: kraće rečeno, nije baš jak u gramatici i pravopisu, a još je slabiji u tečnom oblikovanju svojih misli na papiru. Povrh svega, engleski mu nije materinji jezik, no rezultate želi objaviti u nekom od čitanijih svjetskih znanstvenih publikacije, koje su sve odreda na - engleskom.

Međutim, naš bezimeni kliničar-znanstvenik redovito plaća mjesečnu pretplatu na ChatGPT Plus, pro-verziju chat-bota koja se temelji na velikom jezičnom modelu (large language model, LLM) nazvanom GPT-4, koristi ga nekoliko puta tjedno (pa i dnevno), te ga doživljava osobito korisnim za formuliranje jasnijih načina za pisano prenošenje svojih kliničkih istraživačkih ideja. Možemo li mu to zamjeriti? Jesu li rezultati znanstvenog istraživanja postali manje vrijedni korištenjem AI-bota za njihovo prezentiranje? I je li znanstvenik koji koristi GhatGPT time postao „manje znanstven“?

Alati za pretraživanje podataka i generiranje sažetaka

Nakon pojave prvih „pametnih“ chat-botova bilo je samo pitanje vremena kada će se pojaviti veći broj znanstvenika koji eksperimentiraju s alatima generativne umjetne inteligencije za pisanje znanstvenih tekstova. Istina, jedno od nedavno objavljenih istraživanja u časopisu Nature sugerira da su znanstvenici koji redovito koriste LLM još uvijek u znatnoj manjini, no notorna je činjenica da mnogi predviđaju kako će generativni AI alati postati redoviti pomoćnici za pisanje rukopisa, izvješća o recenziji i prijava za stipendije i financiranje znanstvenih istraživanja.

Recenzije, pisanje tekstova i automatizacija administrativne papirologije samo su neki od načina na koje umjetna inteligencija može transformirati znanstvenu komunikaciju i izdavaštvo. Znanstveni izdavači već eksperimentiraju s generativnom umjetnom inteligencijom ugrađenom u alate za znanstveno pretraživanje te za uređivanje i brzu izradu znanstvenih sažetaka. Mnogi ističu kako bi najviše koristi od ovih alata mogli imati oni kojima engleski jezik (koji je već desetljećima neprikosnoveni standard u znanstvenoj zajednici) nije izvorni jezik znanstvene komunikacije. Neki pak generativnu umjetnu inteligenciju vide kao alat kojim bi znanstvenici tijekom pisanja vlastitih radova mogli provjeravati njihovu kvalitetu i način na koji ispituju i sažimaju eksperimentalne rezultate svojih istraživanja.

A to što bi LLM mogli koristiti za veći dio tog inače zahtjevnog, mukotrpnog i dugotrajnog posla, značilo bi manje vremena utrošenog na pisanje i provjeru tekstova, što u konačnici znači više vremena za provođenje eksperimenata i „pravi“ znanstveni rad.

Poplava „lažnjaka“

Ali takvoj idealnoj, skoro pastoralnoj viziji budućnosti pisanja znanstvenih radova prijeti tamna avet u obličju netočnosti i neistina koje je generativna umjetna inteligencija još uvijek sklona prilično često „podvaljivati“ svojim korisnicima. Jer, ako ste barem malo konkretnije koristili ChatGPT ili Bard ili neki drugi LLM, vrlo brzo ste i sami mogli iskusiti da LLM-ovi još uvijek ne služe za proizvodnju neumitno točnih informacija, nego su i dalje samo alatke za generiranje stilski prihvatljivih outputa koji nastoje biti sukladni obrascima korisničkih inputa.

Jednostavnije rečeno, ako od LLM-a zatražite da vam nabroji pet ili deset najnovijih znanstvenih referenci na temu koja vas interesira, nerijetko će se dogoditi da vam kao rezultat ponudi vrlo uvjerljive naslove radova, sveudilj s imenima autora i nazivima njihovih ustanova, te nabrojanim časopisima u kojima su objavljeni s datumima objave, a da je pritom cijeli popis - posve izmišljen. Od naslova do svakog pojedinog imena s popisa autora (!)

Daniel Hook
Daniel Hook

Stoga su izdavači znanstvene periodike (tiskovina i elektronskih izdanja) opravdano zabrinuti da bi povećanje upotrebe generativne AI moglo dovesti do neprihvatljivog broja rukopisa loše kvalitete ili onih koji sadrže nedopustivo: pogreške u znanstvenim podacima i tvrdnjama. A da i ne spominjemo opasnost od moguće poplave namjernih znanstvenih krivotvorina potpomognutih umjetnom inteligencijom.

Profesor Daniel Hook, izvršni direktor istraživačko-analitičke tvrtke Digital Science iz Londona (u sklopu koje se nalazi i poznati znanstveni časopis Science) ističe da su takvi strahovi u potpunosti opravdani: „Globalna pristupačnost generativnih AI alata mogla bi olakšati produkciju radova loše kvalitete, a u najgorem slučaju i posve ugroziti integritet znanstvenih istraživanja“, tvrdi on.

Vodeni žigovi i lažne reference

Izdavači su već ranije istakli svoju zabrinutost o mogućim neželjenim učincima korištenja generativne umjetne inteligencije. Štoviše, neki su autori znanstvenih radova „ulovljeni“ u korištenju ChatGPT-a kao pomoći pri pisanju radova, a da tu činjenicu nisu prethodno prijavili izdavaču u trenutku podnošenja rada na recenziju za objavljivanje. A otkriveni su tek zato jer su neoprezno i naivno propustili ukloniti izdajničke znakove njegove upotrebe, poput lažnih referenci ili unaprijed programiranog odgovora softvera da se radi o jezičnom modelu umjetne inteligencije.

U idealnom slučaju, izdavači bi trebali biti sposobni otkriti tekst koji je generirao LLM. No, u praksi su se sadašnji alati za otkrivanje umjetne inteligencije pokazali prilično nesposobnima pouzdano prepoznati takve tekstove; dapače, neke od tekstova koje su napisali ljudi označavali su kao krivotvorene proizvode umjetne inteligencije.

Sandra Wachter
Sandra Wachter

Iako programeri komercijalnih LLM-ova rade na tome da tekstovi generirani LLM-om budu označeni nekakvim „vodenim žigom“ kako bi mogli biti pouzdano identificirani kao proizvod umjetne inteligencije, nijedna tvrtka to još nije implementirala u praksi. Osim toga, uz sasvim malo programerskog znanja, svi vodeni žigovi se mogu ukloniti, što naglašava i Sandra Wachter, pravna znanstvenica sa Sveučilišta Oxford koja se usredotočuje na etičke i pravne implikacije novih AI-tehnologija. Ona se nada da će zakonodavci diljem svijeta inzistirati na otkrivanju ili vodenim žigovima za LLM-ove te da će uklanjanje vodenih žigova učiniti nezakonitim.

Nestandardizirane smjernice

Izdavači tom novonastalom problemu pristupaju na nekoliko za sada još uvijek prilično improviziranih načina: ili potpunom zabranom korištenja LLM-a (kao što je učinila Američka udruga za napredak znanosti, izdavač časopisa Science) ili, u većini slučajeva, inzistiranjem na transparentnosti (što je politika časopisa Nature i mnogih drugih). Do svibnja ove godine je 17% izdavača (koji na globalnoj razini izdaju oko 70% ukupnog broja objavljenih znanstvenih članaka) objavilo svoje smjernice o tome pod kojim uvjetima i kako se u izradi znanstvenih radova smije koristiti generativna umjetna inteligencija.

Međutim, smjernice se prilično razlikuju u dijelovima koji govore o tome kakvi se alati i na koji način mogu i smiju primijeniti. Stoga je osnovana neovisna skupina znanstvenika koju predvodi Giovanni Cacciamani, urolog sa Sveučilišta Južne Kalifornije, a u kojoj on i njegovi kolege surađuju s urednicima časopisa na razvoju standardiziranog, jedinstvenog skupa smjernica koje će pomoći znanstvenim istraživačima da prijave svoje korištenje LLM-a.

Giovanni Cacciamani
Giovanni Cacciamani

Mnogi su urednici zabrinuti da bi se generativna umjetna inteligencija mogla koristiti za masovnu proizvodnju znanstveno nekvalitetnih (pa čak i lažnih!), ali formalno i sadržajno na prvi pogled posve korektnih, uvjerljivih članaka. Stoga neki izdavači znanstvenih časopisa najavljuju svoje detaljnije i strože pristupe u postupcima provjere jesu li autori radova autentični i jesu li zaista samostalno proveli istraživanje koje šalju izdavačima na recenziju i objavljivanje. Primjerice, autori koji svoje radove šalju izdavaču EMBO Press iz Heidelberga u Njemačkoj, moraju za prijavu radova koristiti samo službene institucionalne e-mail adrese, a uredništvo se prije svake konačne odluke o objavi znanstvenog rada putem video poziva sastaje s autorima i recenzentima, kaže Bernd Pulverer, tamošnji voditelj znanstvenih publikacija.

Pulverer međutim ističe kako se odgovornost za provjeru autentičnosti znanstvenog rada ne smije sasvim prebaciti na izdavače, već je potrebno da i sâme istraživačke institucije iz kojih dolaze autori radova moraju pomnije pratiti način izrade znanstvenih radova i rezultate svog istraživačkog osoblja, a i financijeri znanstvenih projekata trebaju strože kontrolirati ne samo kako je utrošen njihov novac, već i koju kvalitetu znanstvenih rezultata isporučuju primatelji bespovratnih sredstava za istraživanja.

Pravičnost i nepravednost

Kada je Nature anketirao istraživače o tome što misle da bi generativna umjetna inteligencija mogla biti najveća korist za znanost, najpopularniji odgovor bio je da bi korištenje AI pomoglo istraživačima kojima engleski nije materinji jezik (rezultati ankete su detaljno obrađeni u časopisu Nature u članku „AI and science: what 1,600 researchers think“). Tatsuya Amano, konzervatorski stručnjak i znanstvenik sa Sveučilišta Queensland  piše kako bi „…korištenje AI alata moglo poboljšati jednakost u znanosti“.

Amano i njegovi kolege su pod naslovom „The true cost of science’s language barrier for non-native English speakers“ anketirali više od 900 znanstvenika koji su napisali barem jedan rad na engleskom jeziku, te pokazali kako su istraživačima kojima engleski nije izvorni jezik njihovi radovi pisani na engleskom bili odbijeni više nego dvostruko češće od radova koje su pisali izvorni govornici engleskog jezika (koji su povrh toga i trošili znatno manje vremena na pisanje svojih radova). ChatGPT i slični alati mogli bi biti "velika pomoć" za takve ne-engleske istraživače, tvrdi Amano.

Tatsuya Amano
Tatsuya Amano

Amano, čiji je osnovni jezik japanski, u svrhu istraživanja te svoje tvrdnje eksperimentirao je s različitim načinima korištenja ChatGPT-a i došao do zaključka da je proces rada s LLM-om sličan radu s kolegom kojem je engleski materinji jezik, iako su prijedlozi AI-alata ponekad neprecizni i nedovoljni.

Nakon što je časopis Science zabranio generativne alate umjetne inteligencije, Amano je u tom časopisu u ožujku ove godine bio koautor uvodnika u kojem zajedno sa svojim kolegama iznosi tvrdnju da bi korištenje AI-alata moglo znanstveno objavljivanje učiniti pravednijim, pod uvjetom da autori prijavljuju njihovu upotrebu, primjerice uključivanjem izvornog rukopisa uz verziju uređenu umjetnom inteligencijom.

Nejednakosti i ujednačavanje

Od prvih softverskih alata potpomognutih umjetnom inteligencijom koji su bili korišteni za poboljšavanje stila i gramatika u izvornim tekstovima, suvremeni LLM-alati su uznapredovali vrlo, vrlo daleko. „Jednostavno rečeno, generativna umjetna inteligencija je postala mnogo fleksibilnija“, kaže Irene Li, istraživačica umjetne inteligencije na Sveučilištu u Tokiju.

Kao izvorna govornica japanskog jezika, prethodno je koristila Grammarly program za provjeru gramatike i pravopisa vođen umjetnom inteligencijom, kako bi poboljšala svoj pisani engleski, ali je s pojavom ChatGPT-a prešla na njega jer je „…svestraniji i dugoročno nudi bolju vrijednost za uloženo“: umjesto da plaća više alata, Li se sada može pretplatiti samo na jedan alat koji radi - sve. „Uštedi se nešto novca i mnogo vremena“, kaže ona.

S druge strane, postoje i posve oprečni pogledi na to kako bi smjer u kojem se LLM razvijaju mogao bi utjecati na jednakost ili nejednakost startnih pozicija u svijetu međunarodne uzajamne komunikacije između znanstvenika. Chhavi Chauhan, etičarka umjetne inteligencije i voditeljica Odjela za znanstveni rad u Američkom društvu za istraživačku patologiju u Marylandu, izražava zabrinutost da bi neki od sada besplatnih ili jeftinih LLM-ova mogli u budućnosti postati znatno skuplji kako bi se pokrili troškovi njihovog razvoja i održavanja, čime bi postali teže dostupni znanstvenicima iz zemalja slabije ekonomske moći (koje su pritom po pravilu i zemlje u kojima engleski nije izvorni jezik).

Cchavi Chauhan
Cchavi Chauhan

No, Chahuan ističe još jednu potencijalnu opasnost ukoliko bi visokokvalitetni AI-alati za pomoć u znanstvenom istraživanju i pisanju radova postali u optimalnoj mjeri dostupni za korištenje i ne-engleskim znanstvenicima: ako izdavači budu koristili softverske alate za otkrivanje radova pisanih generativnom umjetnom inteligencijom, veća je vjerojatnost da će umjesto ne-engleskog znanstvenog rada vješto izrađenog pomoću LLM-a, početi posve korektne, „svojeručno pisane“ tekstove izvornih engleskih govornika pogrešno proglašavati uratkom AI-alata.

Štoviše, studija objavljena prije nepuna tri mjeseca pokazala je kako se to već događa s trenutnom generacijom GPT detektora. „Uskoro će nam početi jako nedostajati normalne nejednakosti u kvaliteti znanstvenih radova i istraživanja, koje sada čine distinkciju između kvalitetnog i osrednjeg znanstvenog rada, a koje će ovakvi generativni modeli umjetne inteligencije posve izbrisati i izjednačiti“, kaže ona.

Etička pitanja

Neki istraživači, međutim, tvrde kako se LLM-alati još uvijek nalaze predaleko unutar granica etičke „sive zone“ da bi ih se smjelo uključiti u proces znanstvenog objavljivanja. Njihova glavna zabrinutost po pitanju etičnosti leži u načinu na koji LLM-softver funkcionira: na jedan klik nakon upisivanja naredbenog prompta u AI-alat započinje pretraživanje internetskog sadržaja i prestaje svaka mogućnost daljnjeg korisnikovog nadzora objektivnosti, pristanka za korištenje ili autorskih prava. Iris van Rooij, kognitivna znanstvenica na Sveučilištu Radboud u nizozemskom Nijmegenu ističe da je generativni umjetna inteligencija ustvari  „automatizirani plagijat“, jer korisnici takvih alata nemaju pojma odakle i kojim načinima dobivaju svoje informacije. „Kada bi znanstveni istraživači bili svjesniji postojanja te činjenice, daleko manje bi htjeli koristiti generativne AI alate“, tvrdi ona.

Neke novinske organizacije i izdavačke kuće blokirale su mogućnosti da ChatGPT-ov bot pretražuje njihove stranice, a pojedini napisi u medijima sugeriraju da neke tvrtke razmišljaju i o tužbama zbog ChatGPT-ovog korištenja njihovih podataka za izradu AI-izvješća na traženje korisnika koji je pritom posve nesvjestan da je oporabom svojeg AI-bota koristio neautorizirani pristup tim podacima.

Iris van Rooij
Iris van Rooij

Iako znanstveni izdavači nisu otišli toliko daleko, mnogi među njima pomno prate izvješća s parnica u kojima se tvrdi da generativni modeli umjetne inteligencije sakupljaju zaštićeni materijal u svrhu obuke, zanemarujući sva postojeća ograničenja tih informacija. Neki izdavači najavljuju da će biti potrebno pozvao na veći regulatorni nadzor, uključujući transparentnost i obveze revizije za servere LLM-a.

Povrh svega, Gemma Derrick, stručnjak za istraživačku politiku i kulturu na Sveučilištu u Bristolu, ističe kako postoji i realna opasnost da bi kod znanstvenika koji se počnu previše oslanjati na LLM mogle atrofirati i izgubiti se njihove samostalne vještine znanstvenog izražavanja, a istraživači koji su tek na početku karijere mogli bi propustiti razviti vještine za pripremu i izradu poštenih i kvalitetnih znanstvenih radova.

Transformacijska promjena

Pa ipak, šire gledano, generativni AI alati imaju snažan potencijal za mijenjanje sadašnjeg načina na koji se istraživanja izrađuju, objavljuju i razmjenjuju, kaže Patrick Mineault, viši znanstvenik za strojno učenje na Mila-Quebec AI institutu u Montrealu. Daljnji napredak i podizanje kvalitete AI-alata i LLM-a, uz osiguranje da su izbjegnute bitne etičke pogreške i povrede autorskih prava, mogao bi u bliskoj budućnosti dovesti toga da će rezultati znanstvenih istraživanja biti objavljeno na način koji će lako moći čitati strojevi, a ne ljudi. „Postojat će novi oblici objavljivanja“, tvrdi Mineault.

Patrick Mineault
Patrick Mineault

Osim Mineaulta, i već ranije spomenuti Michael Eisen zamišlja i opisuje budućnost u kojoj se rezultati znanstvenih radova objavljuju u interaktivnom digitalnom formatu dostupnom „na zahtjev“, a ne kao statični proizvod koji je dostupan svima. U ovom modelu, korisnici bi mogli koristiti generativni AI alat za postavljanje upita o točno ciljanim istraživanjima, analizama i dobivenim rezultatima, što bi im omogućilo da dobiju uvid u aspekte istraživanja koji su za njih najrelevantniji.

Korisnicima bi se također omogućio pristup opisu rezultata koji je prilagođen njihovim potrebama. „Mislim da je samo pitanje vremena kada ćemo prestati koristiti individualna, subjektivno intonirana sučelje između ljudi i rezultata znanstvenih studija, i umjesto njih početi koristiti standardizirana sučelja u kojima uzajamno komuniciraju AI-alati – jedan koji je programiran za traženje rezultata i drugi koji je namijenjen pohrani, obradi i isporučivanju tih rezultata na način prilagođen potrebama korisnika“, kaže Eisen.

Tvrtke kao što su scite i Elicit već su počele s primjenom alata za pretraživanje koji koriste jezične modele kako bi istraživačima pružili odgovore na pitanja na prirodnom jeziku; u kolovozu je Elsevier pokrenuo pilot verziju vlastitog alata Scopus AI za davanje brzih sažetaka istraživačkih tema. Ti alati koriste LLM-ove za inteligentno formuliranje i prezentaciju rezultata koji se dobivaju uobičajenim pretraživanjem znanstvenih baza podataka i radova.

Zaključak

Najveći poznati pregledni znanstveni rad čiji autor je „živi čovjek“ bio je rezultat obrade preko 1600 prethodno pregledanih i „pješice“ obrađenih znanstvenih radova, što je impresivna količina materijala, koju bi korištenje generativne umjetne inteligencije moglo lako odvesti do znatno većih brojki. Jer, koliko god impresivno zvučalo, tih 1600 znanstvenih radova tek je vrlo mali dio cjelokupno dostupne znanstvene literature, u kojoj posve sigurno o traženoj temi ima još jako mnogo podataka, otkrića i činjenica.

Prvenstveni zadatak onih koji razvijaju generativne AI-alate je da u što skorijoj budućnosti na zadovoljavajući način uspiju riješiti nekoliko naizgled teško premostivih poteškoća i problema – od usavršavanja mjera za detekciju i zaštitu od znanstvene prevare, preko problema nejednakih startnih pozicija znanstvenika u različitim govornim područjima, do višestrukih etičkih dilema i uvijek problematične teme zaštite autorstva podataka. Povrh svega i dalje stoji velik problem „nezgodne“ tendencije još uvijek nesavršenih LLM-alata da olako produciraju izmišljene informacije i reference koji im nedostaju.

Ukoliko se te prepreke uklone, generativni alati umjetne inteligencije mogli bi iz temelja promijeniti sadašnji način na koji istraživači provode, izrađuju i razmjenjuju znanstvene podatke, meta-analize i preglede.

 

Igor „Doc“ Berecki je pedijatar-intenzivist na Odjelu intenzivnog liječenja djece Klinike za pedijatriju KBC Osijek. Pobornik teorijske i praktične primjene medicine i znanosti temeljene na dokazima, opušta se upitno ne-stresnim aktivnostima: od pisanja znanstveno-popularnih tekstova i objavljivanja ilustracija u tiskanom izdanju časopisâ BUG, crtkanja računalnih grafika i primijenjenog dizajna, zbrinjavanja pasa i mačaka, fejsbučkog blogiranja o životnim neistinama i medicinskim istinama, sve do kuhanja upitno probavljivih craft-piva i sasvim probavljivih jela, te neprobavljivog sviranja bluesa.