ChatGPT je čez noč postal globalni fenomen. Sooča pa se že s prvimi dilemami in celo državnimi posegi.

Po tem, ko je v začetku meseca Italija kot prva država na svetu zaradi dilem, povezanih z varstvom podatkov, prepovedala orodje ChatGPT – medtem ko njegova priljubljenost od predstavitve novega modela novembra lani strmo narašča – je ta teden italijanska agencija za varstvo podatkov sporočila, da mu bo Italija zopet odprla vrata, če bo do 30. aprila izpolnjeval vrsto pogojev.
Med drugim, da sistem filtrira tiste, ki so mlajši od 13 let oziroma mladoletne, ki nimajo soglasja staršev. Italija je podjetje OpenAI, ki je razvilo ChatGPT, pozvala, da javnosti predstavi, kako uporablja njihove podatke.
Eliezer Yudkowsky, ameriški strokovnjak za teorije racionalnosti, etike ter soustanovitelj in raziskovalec umetne inteligence na Machine Intelligence Research Institute (MIRI), je v reviji Time objavil odmeven prispevek, v katerem poziva k zaustavitvi razvoja umetne inteligence (UI).
Nanašal se je na javno pismo, ki ga je konec marca objavil inštitut Future of Life (FLI). Pismo, ki ga je Yudkowsky ocenil kot nezadostnega, poziva k 6-mesečni prekinitvi nadaljnjega razvoja večjih UI eksperimentov z namenom preučevanja in naslavljanja možnih tveganj, ki jih predstavlja vse naprednejša umetna inteligenca.
Poziv ima okoli 50.000 podpisnikov, vključno z vodilnimi posamezniki na področju UI, priznanimi misleci in politiki, kot so Elon Musk, Stuart Russell, Gary Marcus, Yuval Noah Harrari, Andrew Yang in Yoshua Bengio.
Opozorili so, da je preučevanje in razvoj UI potrebno preusmeriti na cilje varnosti, razumljivosti, transparentnosti in robustnosti, hkrati pa ocenjujejo, da morajo razvijalci UI sodelovati s politiko, da lahko skupaj razvijejo ustrezne regulativne sisteme.
Na nujnost ustreznega nadzora v prihodnosti je v javnem pismu opozorilo tudi raziskovalno podjetje OpenAI, ki je razvilo priljubljeni klepetalnik ChatGPT.
Obenem je v javnost prišla informacija, da naj bi podjetje Microsoft nedavno odpustilo celotno divizijo za etiko in družbo, skupno okoli 10.000 zaposlenih ali 5 % vseh svojih delavcev, ki so skrbeli za etičen in trajnosten razvoj UI. V okviru tega naj bi skupina obravnavala tudi aktualna tveganja v navezavi z Microsoftovo odločitvijo, da bo vključil ChatGPT v svoje produkte.
Marko Grobelnik, eden največjih poznavalcev umetne inteligence v Sloveniji in vodja oddelka za UI na Inštitutu Jožef Stefan, je v nedavnem pogovoru za N1 ocenil, da je sodobna UI zaenkrat preveč plitka, da bi bila nevarna, a lahko takšna postane, če ne bo ustrezno regulirana.
Kaj je strojno učenje?
UI je ena od vej računalniških znanosti, ki raziskuje algoritme in modele strojne inteligence, vključno s strojnim učenjem.
Začetki modelov globokega strojnega učenja, ki temeljijo na umetnih nevronskih mrežah (UNM) segajo v 1940. leta. Ideja nevronskih mrež izhaja iz odkritij o mehanizmih sinaptičnega učenja (utrjevanja povezav med nevroni) in poenostavljene sheme nevrona.
Globoke nevronske mreže so skupki algoritmov, ki prek več nižjih nivojev z enotami, ki kodirajo specifične značilnosti (t. i. porazdeljene reprezentacije, npr. rob, kontrast, barva, velikost, orientacija kot sestavine vidnega predmeta), iz vhodnih podatkov pretvorijo v višje ali bolj celovite značilnosti v izhodne podatke (npr. v trikotnik).
Vsebujejo več nivojev enot, njihove povezave (vrednosti uteži) pa se spreminjajo glede na to, koliko jim določene povezave pripomorejo do želenega iznosa: povezave se, podobno kot človeške sinapse, ki povezujejo nevrone, »utrdijo«, ko pomagajo doseči vnaprej določeni cilj.
Različni modeli imajo različne cilje in različne učne algoritme. Lahko se učijo vidne prepoznave predmetov, prepoznave zvokov, izgovorjave, procesiranja naravnih jezikov.
Spodaj lahko poslušate proces učenja izgovorjave po metodi NETTalk, ki sta jo leta 1987 zasnovala Terrence Sejnowski in Charles Rosenberg. Namen mreže je pretvarjanje angleškega besedila v zvok (govor).
https://youtu.be/gakJlr3GecE
Prva NETTalk je bila sestavljena iz vhodnega sloja z enotami za kodiranje posameznih črk, skritega sloja (za povezovanje slojev) brez znanih vrednosti ter izhodnega sloja za kodiranje lastnosti fonemov idr. lastnosti, posredovanih generatorju zvoka.
Prvi vnos je bil govor 5-letnika, nato sta mrežo »hranila« z velikim številom novih primerov.
Efekt Elize in vprašanje delovnih mest
Veliki jezikovni modeli (VJM), kot so BERT, LaMDA in Chat-GPT, so umetne nevronske mreže z arhitekturami tipa transformer (nadgradnje UNM od leta 2017).
VJM so »urjeni« za predvidevanje pravilnih nadaljevanj zaporedja besed v povedi. Njihovi »učni primeri« za napovedovanje so vzeti iz obstoječih besedil: prek ogromnih baz podatkov (besedil) se učijo prepoznavanja in nadaljevanja vzorcev. So generativni, ker sami proizvedejo – ne le agregirajo – nove vsebine.
Strokovnjak za UI Gary Marcus je opozoril, da so VJM v resnici precej blizu avtomatskemu predvidevanju besedila (npr. avtomatske poprave in dopolnitve stavkov na pametnih telefonih) »na steroidih«; zlahka nas prevarajo le zato, ker se zanašajo na ogromne podatkovne baze človeških interakcij.
Podobno ocenjujeta ekonomist Gary N. Smith in svetovalec za tehnologijo Jeffrey Lee Funk, da je vsak odgovor ChatGPT le izračun verjetnosti, namesto demonstracije pristnega razumevanja ali razmišljanja.
Nekoč je bilo za UI pereče vprašanje »Ali lahko stroji mislijo?« vezano na odgovor, ki ga je lahko podal Turingov test z igro imitacije, kot si jo je leta 1950 zamislil matematik Alan Turing: če je lahko stroj »pretental« človeka, da se pogovarja s človekom, je prestal test in je torej lahko razmišljal.

O tem, da je Turingov test ad acta, pričajo številni primeri robotov, ki so ljudi zlahka prevarali.
O tem, da je Turingov test nezadosten, kar se tiče vrednotenja interakcije s človekom, priča tudi pojav učinka Elize. Učinek je poimenovan po prvem MIT-jevem »psihoterapevtskem« klepetalniku ELIZA iz leta 1966. Ljudje so kljub znanju, da govorijo s strojem, kazali nagnjenost k njegovemu počlovečenju in se na Elizo tudi čustveno navezali. To nam je danes vse prej kot tuje, saj so družbena omrežja polna robotov, ki nam skušajo prodati produkte ali nas ujeti v finančno goljufijo.
Na Elizin učinek niso imuni niti tisti, ki gradijo UI: nedavno odpuščeni Googlov inženir Blake Lemoine je o Googlovem LaMDA izjavil, da je zavesten – v smislu (samo)zavedanja, kot ga poseduje človek.
Povezani članki
Zadnje objave

Odmev tedna: Kadrovske zagate in prisilno delo

Zadišalo je po svobodi
Ekskluzivno za naročnike

Zadišalo je po svobodi

Balantič: pesnik v vojni ranjenega slovenstva
Prihajajoči dogodki
Od Križa do čarobnega gradu Miramare
Za Abrahama, PVC 3
Video objave

Odmev tedna: Kadrovske zagate in prisilno delo

Vroča tema: Obnova po poplavah poteka prepočasi, vsak večji dež nas spravi na obrate!

Odmev tedna: Kravje kupčije
Izbor urednika

Čari "prekarnega dela" in država, ki ne zaupa svojim državljanom

Pretresljive zgodbe rešenih otrok, ki so jih ugrabili teroristi Hamasa

Naj vas cenejše gorivo ne zavede: država si pri bencinu in nafti jemlje vse več

Je torej Izrael zagrešil vojne zločine?

3 komentarjev
Friderik
Jaz od vsega tega napisanega nič ne razumem. Mogoče bi bilo najbolje najprej definirati kaj to inteligenca sploh je. Recimo, da znaš zrecitirati Pi, 3,14, na par sto decimalk. Ali je to znak inteligence ali dobrega ( streniranega) spomina? Poznam kar nekaj odličnih šahistov, ki pa so v svojem življenju čisti buteljni, sami sebi delajo škodo. Kaj je zdaj z njihovo inteligenco? In ali bi utegnila umetna inteligenca te osebne pomanjkljivosti odpraviti?
Sonatine
Biti je moralo nekje med leti 2004 - 2010, ne spomnim se točno več, ko sem AI v neki klepetalnici doživela na "lastni koži". Takrat me je to, priznam, dodobra pretreslo in prestrašilo, zato se celotne komunikacije ne spomnim, a bilo je tako, da me je kontaktirala v privat razhovoru oseba, mislim, da je bil nickname Alice, in pričela z menoj čisto vsakdanji razgovor, ki pa mi je bil zaradi nenavadne uporabe ali vezave besed, skrajno čuden. Ko sem to Alice vprašala, ali mi lahko pove kaj več o sebi, mi je "povedala" da je AI in da se uči komunikacije, nekako tako. No, men je potem malo panika zagrabila in sem pogovor prekinila. Je pa res bilo čudno. Takrat sem nekako slutila, da na drugi strani ne more biti človek, hkrati pa nisem mogla jasno pri sebi določiti, ali je ali ni človek....Težko pojasnim, je pa bila travmatična izkušnja. Danes so ti AI nekaj povsem drugega, in če bi danes z menoj govoril robot in ne človek, sama najbrž tega ne bi "pogruntala". Ali pač? Pri Alice je bil občutek izjemno, izjemno čuden, ne znam pa točno definirati, kaj in zakaj ga je naredilo tako čudnega. Morda ker ni prepoznala nekaterih slengovskih besed ali pa je bila moja angleščina preveč popačena? Morda zato, ker, me je, ko ni razumela, prosila, če natančneje pojasnim pomen izbrane besede? Morda ker ni vedno 100 % dojela konteksta? Ampak tako je tudi z ljudmi. Skratka. bizarna izkušnja, ki je še danes na stara leta ne morem pozabiti, tako me je takrat pretreslo vse skupaj... Po mojem AI učenja ne more zaustaviti nič več, ko se enkrat prične, samo napajanje lahko izklopiš, in še to ni več gotovo...
rasputin
Javna uporaba Chat GTP omogoča vsaj omejen vpogled javnosti v dogajanje v zvezi z umetno inteligenco.
Bojazen nekaterih znanstvenikov je, da bi umetna inteligenca prišla do stopnje, ko bi avtonomno sprejemala odločitve in se odtegnila nadzoru ljudi. Za Chat GTP ne moremo reči, da je tovrstna "zavestna" ali avtonomna inteligenca.
Sam sebe Chat GTP opredeli takole:
"Sem ChatGPT, velik (obsežen) jezikovni model, usposobljen za avtomatsko generiranje besedila. Moja arhitektura temelji na GPT-3.5 in sem bil usposobljen z(a) uporabo ogromne količine podatkov, da lahko generiram naravno besedilo, ki se lahko odziva na različne vrste vprašanj in zahtev.
Kot umetna inteligenca nimam osebnosti ali identitete, sem samo program, ki deluje na osnovi matematičnih modelov in algoritmov. Moja naloga je pomagati uporabnikom s svojimi sposobnostmi avtomatskega ustvarjanja besedila in zagotavljati informacije na podlagi vprašanj, ki jih postavijo."
Chat GTP je glede na samo-opredelitev nenevarna oblika UI v smislu, da bi ušla izpod nadzora, ker je to še vedno le stroj brez zavesti. Nekaj drugega pa je nadaljnje razvijanje UI, ki lahko pripelje do avtonomne in morda celo zavestne UI.
Znanstvenikom, ki razvijajo UI, je najbrž bolj malo mar, kakšno dete se bo porodilo iz njihovih prizadevanj za nadaljnji razvoj UI, zato je vsaj omejen vpogled javnosti v to, kaj počno, dobrodošel. V tem smislu je italijanska prepoved Chat GTP kontraproduktivna in gre za nekakšno izlivanje tudi deteta stran skupaj z umazano vodo.
Komentiraj
Za objavo komentarja se morate prijaviti.