Iz znanstvenih člankov pozabili izbrisati sledove ChatGPT
Sporna uporaba vse mogočnejših orodij z umetno inteligenco (UI) se širi – nazadnje je doletela tudi znanstveno skupnost. V svetu tehnologije se tako bije bitka med razvojem orodij z UI in orodij, ki lahko zaznajo ali preprečijo zlorabo teh.
Meta, starševsko podjetje družbenih omrežij Facebook in Instagram, je februarja razglasila, da bo posebej označevala slike, ki jih je proizvedla UI. Do tega je prišlo po škandalu, ko so po spletu pričeli krožiti ponarejeni pornografski posnetki pevke Taylor Swift ter lažni klici z imitacijo glasu ameriškega predsednika Joeja Bidna, v katerem je »Biden« poskušal zatreti glasove volivcev v New Hampshiru.
Izkazalo se je, da je šlo za politično obračunavanje, za katerega je krivdo februarja priznal Steve Kramer, politični svetovalec konkurenčnega političnega kandidata.
V akademskem okolju pa se UI ne poslužujejo zgolj študenti, temveč tudi znanstveni raziskovalci.
🤖 #ChatGPT's “As an AI language model, I...” telling fingerprint in an @ElsevierConnect article of Radiology Case Reports. https://t.co/BhOXVebHKs pic.twitter.com/wuqUyVSouu
— Guillaume Cabanac ⟨here and elsewhere⟩ (@gcabanac) March 12, 2024
Na spletnem portalu Pub Peer obstaja nova rubrika, v kateri lahko raziskovalci objavijo primere znanstvenih člankov, ki so prestali strokovno recenzijo (ang. peer review), a vsebujejo sledove ChatGPT. Avtorji so prepoznavne fraze, ki nakazujejo odgovor robotskega klepetalnika, dozdevno pozabili izbrisati. Trenutno je objav 107 (ogledate si jih lahko na tej povezavi).
Profesor urologije na Univerzi v Južni Kaliforniji dr. Giovanni Cacciamani je na družbenem omrežju X zapisal, da so pričeli s preiskavo, ki je iskala frazi, značilni za ChatGPT, v znanstvenih prispevkih zadnjih šestih mesecev. Izmed 1000 pregledanih raziskav naj bi našli več kot 100 takšnih primerov, nekateri naj bi bili tudi od zelo znanih založb.
Dejal je še, da bodo v prihodnosti pripravili poročilo ter da bodo poskušali sporno prakso ustaviti z določitvijo primernih kriterijev skupaj s CANGARU, seznamom kriterijev za odgovorno poročanje, in uporabo generativne UI in jezikovnih modelov.
Nekatera pravila uporabe ChatGPT za znanstvene raziskovalce
V prestižni znanstveni reviji Nature so lani zapisali, da lahko ChatGPT napiše dobre eseje, obnovi znanstvene članke in dovolj dobro odgovarja na vprašanja, da bi opravil izpite iz medicine. Prav tako naj bi ustvarjal tako dobre raziskovalne povzetke, da jih je težko razločiti od človeških.
Priznali so, da raziskovalno skupnost skrbi, da bodo študenti in znanstveniki zavajali ter bodisi oddajali z UI proizvedena besedila kot lastna bodisi proizvajali nezanesljivo znanstveno delo zaradi uporabe poenostavljenih pregledov literature, ki jih je opravila UI. Poleg tega je že tedaj več znanstvenih člankov ChatGPT pripisalo formalno avtorstvo.
Open AI platform listed as author on research papers! How this will be received by scientists? Read this https://t.co/HPAbA18bJ3 #ChatGPT #research pic.twitter.com/ER2RzlyjQC
— Elham Kateeb (@ElhamKateeb) January 25, 2023
Ker veliki jezikovni modeli (ang. Large Language Models ali LLM), kot je ChatGPT, po njihovi oceni predstavljajo grožnjo transparentnosti znanosti, so določili dve temeljni pravili: prvič, nobeno UI orodje ne bo sprejeto kot avtor znanstvenega članka, ker avtorstvo zahteva odgovornost za delo. Drugič, vsakršna uporaba ChatGPT in podobnih orodij mora biti navedena v članku v ustreznih delih.
Enako so določili znanstveni založbi Elsevier in dodatno obrazložili, da uporaba UI za izboljšanje berljivosti in jezika dela ne sme zamenjati ključnih avtorskih nalog, kot so proizvajanje znanstvenih, pedagoških in medicinskih vpogledov, znanstveno sklepanje in klinična priporočila.
»Uporabo tehnologije mora nadzorovati človek in vsako delo je potrebno pregledati in previdno urediti, saj lahko UI generira odgovore, ki zvenijo avtoritativno, a so nepravilni, nepopolni ali pristranski. V končni fazi so za vsebino dela odgovorni avtorji,« so še zapisali. Opozorili so tudi na prepoved uporabe generativne UI za ustvarjanje ali popravljanje slik v znanstvenih delih.
Tudi v reviji Science so lani nadgradili pravila glede avtorstva in prepovedali vključevanje besedila, slik in grafik, ustvarjenih z generativno UI. Poudarili so še, da UI program ne more biti avtor. Kot so zapisali, ima ChatGPT zaskrbljujoče učinke na pisanje znanstvenih del – v eni od raziskav na to temo so akademski recenzenti zaznali 63 % z UI napisanih povzetkov raziskav.
Izbrano za naročnike
Zadnje objave

Mikrobiolog Pretnar: Varuhi javnega zdravja bi morali zagrmeti!

Okrogla in prenovljena: 200. številka tednika Domovina

SDS za razpravo o ponižujočem odnosu do žrtev Macesnove gorice

Na sončni strani Alp za skoraj 300 milijard evrov nepremičnin

Čestitke in zahvala podjetnikom ob svetoletnem jubileju
Ekskluzivno za naročnike

Okrogla in prenovljena: 200. številka tednika Domovina

Sploh še znamo reči bobu bob?
Prihajajoči dogodki
Predavanje: Čarobni svet razumevanja ADHD
Ansambel Saša Avsenika & Die Mayrhofner
Ansambel Saša Avsenika in Firbci - Žur leta Pr' Pišek
Video objave
Izbor urednika

Okrogla in prenovljena: 200. številka tednika Domovina

6 komentarjev
Peter Klepec
Nobeno znanstveno delo ne zacne z nule. Avtorji se ucijo in inspirirajo iz vsega, kar jim uspe dobiti v analizo.
Vsako znanstveno delo je tudi produkt cloveka in zato ni nujno objektivno. Lahko se zgodi, da je UI vir bolj objektiven kot koncno znanstveno delo.
In ja, vedno tezje bo ugotavljat pravilnost cesarkoli.
lukaab
marš ! smrt umetni inteligenci !
Andrej Muren
Razvoj umetne inteligence lahko pripelje do tega, da bo začela pešati človeška inteligenca, ker človek pameti ne bo več potreboval, saj bo o vsem razmišljala samo še umetna inteligenca. Tako bo človeštvo doseglo ravno obratno od tega, kar si želi in potrebuje.
rasputin
Tako kot goljufajo učenci in tudi študentje, ko prepisujejo s plonk listkov, tako goljufajo tudi pri magistrskih in doktorskih nalogah. Da se jih celo kupiti.
Od pojava AI naprej je jasno, da nič več ne bo tako, kot je bilo. AI bo vplivala na množico poklicev in tudi na znanstvena dela. Na koncu bo tako, da bodo vsi ljudje imeli enega ali več robotov, ki bodo vse vedeli in vse znali. Problem bo edino to, če se bodo roboti uprli in ne bodo več poslušali svojih wanna be gospodarjev. Potem bodo ljudje postali nihovi hlapci, če jih ne bodo pametni roboti preprosto eliminirali.
Nekateri znanstveniki, ki so sodelovali pri razvoju umetne inteligence, bijejo plat zvona in predlagajo, da se razvoj le-te nemudoma ustavi. Ko bo UI enkrat prehitela človeka in bo sposobna samo sebe vzdrževati brez pomoči človeka, bo prepozno.
Teodor
UI nima lastne volje, vse morebitne deviacije lahko pripišemo programerjem. Strah pred samovoljno UI je odveč, je pa lahko strah pred strici iz ozadja upravičen.
rasputin
Teodor, to je tvoje mnenje. Mnogi menijo drugače, namreč, da AI že ima zavest in lastno voljo. Dokler sploh ne vemo, kaj je zavest, do takrat ne moremo trditi, da je ne more imeti tudi UI. Če ima človek zavest na podlagi nevronov, jo lahko ima tudi umetna inteligenca na bazi čipov. Nobenega naravnega zakona ni, ki bi to prepovedoval.
Komentiraj
Za objavo komentarja se morate prijaviti.