Iz znanstvenih člankov pozabili izbrisati sledove ChatGPT

Vir foto: Jesussanz/ depositphotos.com

Sporna uporaba vse mogočnejših orodij z umetno inteligenco (UI) se širi – nazadnje je doletela tudi znanstveno skupnost. V svetu tehnologije se tako bije bitka med razvojem orodij z UI in orodij, ki lahko zaznajo ali preprečijo zlorabo teh.

Meta, starševsko podjetje družbenih omrežij Facebook in Instagram, je februarja razglasila, da bo posebej označevala slike, ki jih je proizvedla UI. Do tega je prišlo po škandalu, ko so po spletu pričeli krožiti ponarejeni pornografski posnetki pevke Taylor Swift ter lažni klici z imitacijo glasu ameriškega predsednika Joeja Bidna, v katerem je »Biden« poskušal zatreti glasove volivcev v New Hampshiru.

Izkazalo se je, da je šlo za politično obračunavanje, za katerega je krivdo februarja priznal Steve Kramer, politični svetovalec konkurenčnega političnega kandidata.

V akademskem okolju pa se UI ne poslužujejo zgolj študenti, temveč tudi znanstveni raziskovalci.

Na spletnem portalu Pub Peer obstaja nova rubrika, v kateri lahko raziskovalci objavijo primere znanstvenih člankov, ki so prestali strokovno recenzijo (ang. peer review), a vsebujejo sledove ChatGPT. Avtorji so prepoznavne fraze, ki nakazujejo odgovor robotskega klepetalnika, dozdevno pozabili izbrisati. Trenutno je objav 107 (ogledate si jih lahko na tej povezavi).

Profesor urologije na Univerzi v Južni Kaliforniji dr. Giovanni Cacciamani je na družbenem omrežju X zapisal, da so pričeli s preiskavo, ki je iskala frazi, značilni za ChatGPT, v znanstvenih prispevkih zadnjih šestih mesecev. Izmed 1000 pregledanih raziskav naj bi našli več kot 100 takšnih primerov, nekateri naj bi bili tudi od zelo znanih založb.

Dejal je še, da bodo v prihodnosti pripravili poročilo ter da bodo poskušali sporno prakso ustaviti z določitvijo primernih kriterijev skupaj s CANGARU, seznamom kriterijev za odgovorno poročanje, in uporabo generativne UI in jezikovnih modelov.

Nekatera pravila uporabe ChatGPT za znanstvene raziskovalce

V prestižni znanstveni reviji Nature so lani zapisali, da lahko ChatGPT napiše dobre eseje, obnovi znanstvene članke in dovolj dobro odgovarja na vprašanja, da bi opravil izpite iz medicine. Prav tako naj bi ustvarjal tako dobre raziskovalne povzetke, da jih je težko razločiti od človeških.

Priznali so, da raziskovalno skupnost skrbi, da bodo študenti in znanstveniki zavajali ter bodisi oddajali z UI proizvedena besedila kot lastna bodisi proizvajali nezanesljivo znanstveno delo zaradi uporabe poenostavljenih pregledov literature, ki jih je opravila UI. Poleg tega je že tedaj več znanstvenih člankov ChatGPT pripisalo formalno avtorstvo.

Ker veliki jezikovni modeli (ang. Large Language Models ali LLM), kot je ChatGPT, po njihovi oceni predstavljajo grožnjo transparentnosti znanosti, so določili dve temeljni pravili: prvič, nobeno UI orodje ne bo sprejeto kot avtor znanstvenega članka, ker avtorstvo zahteva odgovornost za delo. Drugič, vsakršna uporaba ChatGPT in podobnih orodij mora biti navedena v članku v ustreznih delih.

Enako so določili znanstveni založbi Elsevier in dodatno obrazložili, da uporaba UI za izboljšanje berljivosti in jezika dela ne sme zamenjati ključnih avtorskih nalog, kot so proizvajanje znanstvenih, pedagoških in medicinskih vpogledov, znanstveno sklepanje in klinična priporočila.

»Uporabo tehnologije mora nadzorovati človek in vsako delo je potrebno pregledati in previdno urediti, saj lahko UI generira odgovore, ki zvenijo avtoritativno, a so nepravilni, nepopolni ali pristranski. V končni fazi so za vsebino dela odgovorni avtorji,« so še zapisali. Opozorili so tudi na prepoved uporabe generativne UI za ustvarjanje ali popravljanje slik v znanstvenih delih.

Tudi v reviji Science so lani nadgradili pravila glede avtorstva in prepovedali vključevanje besedila, slik in grafik, ustvarjenih z generativno UI. Poudarili so še, da UI program ne more biti avtor. Kot so zapisali, ima ChatGPT zaskrbljujoče učinke na pisanje znanstvenih del – v eni od raziskav na to temo so akademski recenzenti zaznali 63 % z UI napisanih povzetkov raziskav.

Naroči se Doniraj Vse novice Za naročnike