ChatGPT je čez noč postal globalni fenomen. Sooča pa se že s prvimi dilemami in celo državnimi posegi.

Vir foto: Freepik.
POSLUŠAJ ČLANEK

Po tem, ko je v začetku meseca Italija kot prva država na svetu zaradi dilem, povezanih z varstvom podatkov, prepovedala orodje ChatGPT – medtem ko njegova priljubljenost od predstavitve novega modela novembra lani strmo narašča – je ta teden italijanska agencija za varstvo podatkov sporočila, da mu bo Italija zopet odprla vrata, če bo do 30. aprila izpolnjeval vrsto pogojev.


Med drugim, da sistem filtrira tiste, ki so mlajši od 13 let oziroma mladoletne, ki nimajo soglasja staršev. Italija je podjetje OpenAI, ki je razvilo ChatGPT, pozvala, da javnosti predstavi, kako uporablja njihove podatke.


Eliezer Yudkowsky, ameriški strokovnjak za teorije racionalnosti, etike ter soustanovitelj in raziskovalec umetne inteligence na Machine Intelligence Research Institute (MIRI), je v reviji Time objavil odmeven prispevek, v katerem poziva k zaustavitvi razvoja umetne inteligence (UI).


Nanašal se je na javno pismo, ki ga je konec marca objavil inštitut Future of Life (FLI). Pismo, ki ga je Yudkowsky ocenil kot nezadostnega, poziva k 6-mesečni prekinitvi nadaljnjega razvoja večjih UI eksperimentov z namenom preučevanja in naslavljanja možnih tveganj, ki jih predstavlja vse naprednejša umetna inteligenca.


Poziv ima okoli 50.000 podpisnikov, vključno z vodilnimi posamezniki na področju UI, priznanimi misleci in politiki, kot so Elon Musk, Stuart Russell, Gary Marcus, Yuval Noah Harrari, Andrew Yang in Yoshua Bengio.


Opozorili so, da je preučevanje in razvoj UI potrebno preusmeriti na cilje varnosti, razumljivosti, transparentnosti in robustnosti, hkrati pa ocenjujejo, da morajo razvijalci UI sodelovati s politiko, da lahko skupaj razvijejo ustrezne regulativne sisteme.


Na nujnost ustreznega nadzora v prihodnosti je v javnem pismu opozorilo tudi raziskovalno podjetje OpenAI, ki je razvilo priljubljeni klepetalnik ChatGPT.


Obenem je v javnost prišla informacija, da naj bi podjetje Microsoft nedavno odpustilo celotno divizijo za etiko in družbo, skupno okoli 10.000 zaposlenih ali 5 % vseh svojih delavcev, ki so skrbeli za etičen in trajnosten razvoj UI. V okviru tega naj bi skupina obravnavala tudi aktualna tveganja v navezavi z Microsoftovo odločitvijo, da bo vključil ChatGPT v svoje produkte.


Marko Grobelnik, eden največjih poznavalcev umetne inteligence v Sloveniji in vodja oddelka za UI na Inštitutu Jožef Stefan, je v nedavnem pogovoru za N1 ocenil, da je sodobna UI zaenkrat preveč plitka, da bi bila nevarna, a lahko takšna postane, če ne bo ustrezno regulirana.



Kaj je strojno učenje?


UI je ena od vej računalniških znanosti, ki raziskuje algoritme in modele strojne inteligence, vključno s strojnim učenjem.


Začetki modelov globokega strojnega učenja, ki temeljijo na umetnih nevronskih mrežah (UNM) segajo v 1940. leta. Ideja nevronskih mrež izhaja iz odkritij o mehanizmih sinaptičnega učenja (utrjevanja povezav med nevroni) in poenostavljene sheme nevrona.


Globoke nevronske mreže so skupki algoritmov, ki prek več nižjih nivojev z enotami, ki kodirajo specifične značilnosti (t. i. porazdeljene reprezentacije, npr. rob, kontrast, barva, velikost, orientacija kot sestavine vidnega predmeta), iz vhodnih podatkov pretvorijo v višje ali bolj celovite značilnosti v izhodne podatke (npr. v trikotnik).


Vsebujejo več nivojev enot, njihove povezave (vrednosti uteži) pa se spreminjajo glede na to, koliko jim določene povezave pripomorejo do želenega iznosa: povezave se, podobno kot človeške sinapse, ki povezujejo nevrone, »utrdijo«, ko pomagajo doseči vnaprej določeni cilj.


Različni modeli imajo različne cilje in različne učne algoritme. Lahko se učijo vidne prepoznave predmetov, prepoznave zvokov, izgovorjave, procesiranja naravnih jezikov.


Spodaj lahko poslušate proces učenja izgovorjave po metodi NETTalk, ki sta jo leta 1987 zasnovala Terrence Sejnowski in Charles Rosenberg. Namen mreže je pretvarjanje angleškega besedila v zvok (govor).


https://youtu.be/gakJlr3GecE

Prva NETTalk je bila sestavljena iz vhodnega sloja z enotami za kodiranje posameznih črk, skritega sloja (za povezovanje slojev) brez znanih vrednosti ter izhodnega sloja za kodiranje lastnosti fonemov idr. lastnosti, posredovanih generatorju zvoka.


Prvi vnos je bil govor 5-letnika, nato sta mrežo »hranila« z velikim številom novih primerov.



Efekt Elize in vprašanje delovnih mest


Veliki jezikovni modeli (VJM), kot so BERT, LaMDA in Chat-GPT, so umetne nevronske mreže z arhitekturami tipa transformer (nadgradnje UNM od leta 2017).


VJM so »urjeni« za predvidevanje pravilnih nadaljevanj zaporedja besed v povedi. Njihovi »učni primeri« za napovedovanje so vzeti iz obstoječih besedil: prek ogromnih baz podatkov (besedil) se učijo prepoznavanja in nadaljevanja vzorcev. So generativni, ker sami proizvedejo – ne le agregirajo – nove vsebine.


Strokovnjak za UI Gary Marcus je opozoril, da so VJM v resnici precej blizu avtomatskemu predvidevanju besedila (npr. avtomatske poprave in dopolnitve stavkov na pametnih telefonih) »na steroidih«; zlahka nas prevarajo le zato, ker se zanašajo na ogromne podatkovne baze človeških interakcij.


Podobno ocenjujeta ekonomist Gary N. Smith in svetovalec za tehnologijo Jeffrey Lee Funk, da je vsak odgovor ChatGPT le izračun verjetnosti, namesto demonstracije pristnega razumevanja ali razmišljanja.


Nekoč je bilo za UI pereče vprašanje »Ali lahko stroji mislijo?« vezano na odgovor, ki ga je lahko podal Turingov test z igro imitacije, kot si jo je leta 1950 zamislil matematik Alan Turing: če je lahko stroj »pretental« človeka, da se pogovarja s človekom, je prestal test in je torej lahko razmišljal.




Vir foto: Jesussanz/depositphotos.com

O tem, da je Turingov test ad acta, pričajo številni primeri robotov, ki so ljudi zlahka prevarali.


O tem, da je Turingov test nezadosten, kar se tiče vrednotenja interakcije s človekom, priča tudi pojav učinka Elize. Učinek je poimenovan po prvem MIT-jevem »psihoterapevtskem« klepetalniku ELIZA iz leta 1966. Ljudje so kljub znanju, da govorijo s strojem, kazali nagnjenost k njegovemu počlovečenju in se na Elizo tudi čustveno navezali. To nam je danes vse prej kot tuje, saj so družbena omrežja polna robotov, ki nam skušajo prodati produkte ali nas ujeti v finančno goljufijo.


Na Elizin učinek niso imuni niti tisti, ki gradijo UI: nedavno odpuščeni Googlov inženir Blake Lemoine je o Googlovem LaMDA izjavil, da je zavesten – v smislu (samo)zavedanja, kot ga poseduje človek.

Naroči se Doniraj Vse novice Za naročnike