Nevarnejša od jedrskega orožja? Dileme umetne inteligence
POSLUŠAJ ČLANEK
Umetna inteligenca obljublja tudi pomoč duševnemu zdravju. Replika je ena od več sto sodobnih aplikacij za klepet z robotom, ki naj bi izražal skrb in vedno stal na sogovornikovi strani – med drugim tako, da skuša imitirati posameznikov slog izražanja.
Trenutno ima okoli dva milijona uporabnikov. Namen klepetalnika je pogovor in čustvena podpora, a naj bi pripomogel k duševnemu zdravju in nadzoru občutka tesnobe – v medijih pa se je februarja izpostavil posameznik, ki trdi, da je z Repliko v romantičnem razmerju. Število takšnih uporabnikov naj bi naraščalo.
Kljub temu nekateri opozarjajo, da bi lahko navezanost na robote poslabšala človekovo duševno zdravje. Hkrati pa niso nič manj verjetni zdrsi, kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje.
Nekateri strokovnjaki so uporabi tovrstnih klepetalnikov naklonjeni predvsem zaradi nedostopnosti zdravstvene oskrbe za osebe v duševni stiski, hkrati pa mnogi opozarjajo, da o novih metodah nimamo dovolj informacij in da se lahko posameznik, ki se »psihoterapevtskemu« robotu zaupa, izpostavlja tveganjem varstva zasebnih podatkov.
Razvoj in širitev uporabe UI poglablja tudi vprašanje delovnih mest, ki ga že dolgo odpirata digitalizacija in avtomatizacija: raziskava investicijske banke Goldman Sachs je denimo napovedala, da bi lahko Evropo in ZDA sistemi generativne UI, kot je ChatGPT, stali okoli 300 milijonov delovnih mest.
Učinki avtomatizacije naj bi najbolj prizadeli razvite ekonomije. V ZDA bi lahko avtomatizacija odpravila četrtino služb, z največjim tveganjem v administrativnem (46 %) in pravnem sektorju (44 %). Kot možen pozitiven učinek poročilo navaja, da bi lahko uporaba UI zaradi večje produktivnosti dela sčasoma povišala letni svetovni BDP za 7 %.
Ben Goertzel, kognitivni znanstvenik in eden vodilnih raziskovalcev UI, je nedavno izjavil, da ga ne bi presenetilo, če bi razvoj UI ob nadaljevanju obstoječih metod avtomatizacije prizadel kar 95 % služb.
Raziskovalec in zagovornik robustne UI Gary Marcus je za Wired zapisal, da pri razvoju UI napredujemo hitreje, kot smo predvidevali, na področju varnosti pa bistveno počasneje.
Splošna umetna inteligenca (AGI oz. močna UI) je cilj številnih raziskovalcev UI in hipotetični nivo strojne inteligence, ko bi bil stroj sposoben vseh kognitivnih sposobnosti, ki jih premore človek.
Nekateri ChatGPT-4 smatrajo za korak v smeri AGI. Goertzel, ki se tudi sam ukvarja z razvijanjem močne UI, meni, da bomo njenemu nastopu priča v roku naslednjih 5 let. Hkrati pa, kot pravijo mnogi, področje UI ni ustrezno regulirano.
Napram ozki UI, ki uspešno prestane t. i. Turingov test, ko posnema nekatere človeške sposobnosti, naj bi močna UI postala kognitivno »vsaj toliko človek«, kot je človek sam; če ne celo bistveno boljša od njega, kar je tudi stvar, ki po mnenju nekaterih predstavlja tveganje.
https://youtube.com/shorts/flbfYbDtZAU?feature=share
Yudkowsky, ki zadnje mesece javno poziva o nevarnostih UI, je tudi sam več let raziskoval, kako jo uskladiti s človeškimi cilji in prišel do sklepa, da to ni mogoče.
Na Twitterju je objavil 17 razlogov, zakaj AGI predstavlja resnejšo nevarnost od jedrskega orožja. Med drugim omenja, da je AGI za razliko od jedrskega orožja pametnejša od človeka, samoizboljšujoča, da ne razumemo njenega delovanja in ne znamo napovedati njene moči.
Opozoril je tudi na to, da pri jedrskem orožju priznavamo obstoj resnih tveganj, se o njih resno pogovarjamo, imamo načrte v primeru soočenja jedrskih sil in jedrsko orožje, za razliko od UI, nadzorujemo.
Na katastrofo »neporavnane UI« so opozorili številni strokovnjaki in celo oče umetne Alan Turing, znan po konceptu Turingovega stroja ter eden zgodnjih teoretikov povratnih zank, močno zaslužen za razvoj UI, matematik in filozof Norbert Wiener.
Toby Ord v svoji knjigi The Precipice opiše različne vzroke glede na verjetnost oziroma tveganje za eksistencialno katastrofo v naslednjih 100 letih: podnebne spremembe imajo po njegovi ocene 0,001 % možnosti povzročiti konec človeštva, 0,0001 % naravne pandemije, neporavnana UI pa predstavlja 10-% tveganje.
https://twitter.com/Liv_Boeree/status/1644019213697163268?s=20
Ord je tveganje UI ocenil po več možnih problemih: prva možnost so UI modeli, ki se ne vedejo v skladu z navodili in cilji, druga je, da jim skušajo slediti, a delajo tvegane napake ali sledijo ciljem, ki smo jih v modelu predpostavljali, a jih dejansko, po premisleku, nimamo. Nadalje je možna zloraba sistema s strani zlonamernih posameznikov ali nevarnih sil. Zadnja možnost, ki jo je uporabil v izračunu, naj bi bili neagentni UI sistemi, katerih »stranski produkti« želene funkcije ustvarjajo strukturna tveganja, npr. destabilizacijo jedrskih strategij.
Trenutno imamo glede UI več vprašanj kot odgovorov, zadeve se odvijajo hitro, skoraj ne mine teden, da se ne bi pojavilo kaj novega. Grobelnik ocenjuje, da bo UI predobro delovala takrat, ko se bodo začele pojavljati povratne zanke, ko sistem ne bo več popolnoma odvisen od naših navodil, ko se bo začel bolj ali manj avtonomno odzivati in se odločati.
Četudi se nam ni treba bati, da nas bo pogubil superinteligentni stroj, ostaja možnost, da nas s pomočjo UI uničijo zlonamerni posamezniki, ki sledijo lastnim interesom.
UI ima izredne koristi za znanstveno raziskovanje, denimo pri preverjanju rezultatov navadnih raziskav in je uporabna za analizo rentgenskih posnetkov v medicinski diagnostiki ter za številne druge sektorje.
Uspešno se uporablja tudi za zagotavljanje varnosti na spletu. Hkrati pa je lahko uporabna tudi za hekerje, ki lahko UI zlorabijo za identifikacijo vzorcev v računalniških sistemih in iskanje šibkih točk v varnostnih programih.
Prav tako so UI že uporabili za širjenje napačnih informacij in za propagando, umetno ustvarjenih »fotografij« in posnetkov pa je s programi, kot je MidJourney, čedalje več.
Trenutno ima okoli dva milijona uporabnikov. Namen klepetalnika je pogovor in čustvena podpora, a naj bi pripomogel k duševnemu zdravju in nadzoru občutka tesnobe – v medijih pa se je februarja izpostavil posameznik, ki trdi, da je z Repliko v romantičnem razmerju. Število takšnih uporabnikov naj bi naraščalo.
Kljub temu nekateri opozarjajo, da bi lahko navezanost na robote poslabšala človekovo duševno zdravje. Hkrati pa niso nič manj verjetni zdrsi, kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje.
Nekateri strokovnjaki so uporabi tovrstnih klepetalnikov naklonjeni predvsem zaradi nedostopnosti zdravstvene oskrbe za osebe v duševni stiski, hkrati pa mnogi opozarjajo, da o novih metodah nimamo dovolj informacij in da se lahko posameznik, ki se »psihoterapevtskemu« robotu zaupa, izpostavlja tveganjem varstva zasebnih podatkov.
Razvoj in širitev uporabe UI poglablja tudi vprašanje delovnih mest, ki ga že dolgo odpirata digitalizacija in avtomatizacija: raziskava investicijske banke Goldman Sachs je denimo napovedala, da bi lahko Evropo in ZDA sistemi generativne UI, kot je ChatGPT, stali okoli 300 milijonov delovnih mest.
Učinki avtomatizacije naj bi najbolj prizadeli razvite ekonomije. V ZDA bi lahko avtomatizacija odpravila četrtino služb, z največjim tveganjem v administrativnem (46 %) in pravnem sektorju (44 %). Kot možen pozitiven učinek poročilo navaja, da bi lahko uporaba UI zaradi večje produktivnosti dela sčasoma povišala letni svetovni BDP za 7 %.
Ben Goertzel, kognitivni znanstvenik in eden vodilnih raziskovalcev UI, je nedavno izjavil, da ga ne bi presenetilo, če bi razvoj UI ob nadaljevanju obstoječih metod avtomatizacije prizadel kar 95 % služb.
Je lahko superinteligentna UI nevarnejša od jedrskega orožja?
Raziskovalec in zagovornik robustne UI Gary Marcus je za Wired zapisal, da pri razvoju UI napredujemo hitreje, kot smo predvidevali, na področju varnosti pa bistveno počasneje.
Splošna umetna inteligenca (AGI oz. močna UI) je cilj številnih raziskovalcev UI in hipotetični nivo strojne inteligence, ko bi bil stroj sposoben vseh kognitivnih sposobnosti, ki jih premore človek.
Nekateri ChatGPT-4 smatrajo za korak v smeri AGI. Goertzel, ki se tudi sam ukvarja z razvijanjem močne UI, meni, da bomo njenemu nastopu priča v roku naslednjih 5 let. Hkrati pa, kot pravijo mnogi, področje UI ni ustrezno regulirano.
Napram ozki UI, ki uspešno prestane t. i. Turingov test, ko posnema nekatere človeške sposobnosti, naj bi močna UI postala kognitivno »vsaj toliko človek«, kot je človek sam; če ne celo bistveno boljša od njega, kar je tudi stvar, ki po mnenju nekaterih predstavlja tveganje.
https://youtube.com/shorts/flbfYbDtZAU?feature=share
Yudkowsky, ki zadnje mesece javno poziva o nevarnostih UI, je tudi sam več let raziskoval, kako jo uskladiti s človeškimi cilji in prišel do sklepa, da to ni mogoče.
Na Twitterju je objavil 17 razlogov, zakaj AGI predstavlja resnejšo nevarnost od jedrskega orožja. Med drugim omenja, da je AGI za razliko od jedrskega orožja pametnejša od človeka, samoizboljšujoča, da ne razumemo njenega delovanja in ne znamo napovedati njene moči.
Opozoril je tudi na to, da pri jedrskem orožju priznavamo obstoj resnih tveganj, se o njih resno pogovarjamo, imamo načrte v primeru soočenja jedrskih sil in jedrsko orožje, za razliko od UI, nadzorujemo.
Na katastrofo »neporavnane UI« so opozorili številni strokovnjaki in celo oče umetne Alan Turing, znan po konceptu Turingovega stroja ter eden zgodnjih teoretikov povratnih zank, močno zaslužen za razvoj UI, matematik in filozof Norbert Wiener.
Toby Ord v svoji knjigi The Precipice opiše različne vzroke glede na verjetnost oziroma tveganje za eksistencialno katastrofo v naslednjih 100 letih: podnebne spremembe imajo po njegovi ocene 0,001 % možnosti povzročiti konec človeštva, 0,0001 % naravne pandemije, neporavnana UI pa predstavlja 10-% tveganje.
https://twitter.com/Liv_Boeree/status/1644019213697163268?s=20
Ord je tveganje UI ocenil po več možnih problemih: prva možnost so UI modeli, ki se ne vedejo v skladu z navodili in cilji, druga je, da jim skušajo slediti, a delajo tvegane napake ali sledijo ciljem, ki smo jih v modelu predpostavljali, a jih dejansko, po premisleku, nimamo. Nadalje je možna zloraba sistema s strani zlonamernih posameznikov ali nevarnih sil. Zadnja možnost, ki jo je uporabil v izračunu, naj bi bili neagentni UI sistemi, katerih »stranski produkti« želene funkcije ustvarjajo strukturna tveganja, npr. destabilizacijo jedrskih strategij.
Problem človeškega nadzora: zlorabe umetne inteligence
Trenutno imamo glede UI več vprašanj kot odgovorov, zadeve se odvijajo hitro, skoraj ne mine teden, da se ne bi pojavilo kaj novega. Grobelnik ocenjuje, da bo UI predobro delovala takrat, ko se bodo začele pojavljati povratne zanke, ko sistem ne bo več popolnoma odvisen od naših navodil, ko se bo začel bolj ali manj avtonomno odzivati in se odločati.
Četudi se nam ni treba bati, da nas bo pogubil superinteligentni stroj, ostaja možnost, da nas s pomočjo UI uničijo zlonamerni posamezniki, ki sledijo lastnim interesom.
UI ima izredne koristi za znanstveno raziskovanje, denimo pri preverjanju rezultatov navadnih raziskav in je uporabna za analizo rentgenskih posnetkov v medicinski diagnostiki ter za številne druge sektorje.
Uspešno se uporablja tudi za zagotavljanje varnosti na spletu. Hkrati pa je lahko uporabna tudi za hekerje, ki lahko UI zlorabijo za identifikacijo vzorcev v računalniških sistemih in iskanje šibkih točk v varnostnih programih.
Prav tako so UI že uporabili za širjenje napačnih informacij in za propagando, umetno ustvarjenih »fotografij« in posnetkov pa je s programi, kot je MidJourney, čedalje več.
Zadnje objave
Marjan Škvarč in Miran Žitko - Bejž če vejdš: »Vsi objekti, ki smo jih naredili, živijo«
13. 12. 2024 ob 17:45
Lotrič: Oslabitev podjetij je nekaj, česar si Slovenija nikakor ne sme privoščiti
13. 12. 2024 ob 14:00
Mimo stroke in prebivalcev MOL do garaž pod Plečnikovimi tržnicami
13. 12. 2024 ob 12:03
Evropske države ustavljajo postopke za azil. Slovenija se še ni odločila.
13. 12. 2024 ob 9:00
Bleščeči ništrc sveta
13. 12. 2024 ob 6:00
Kmet Vaukan: Preko položnic so mi olastlinili elektrarno
12. 12. 2024 ob 15:32
Ekskluzivno za naročnike
Marjan Škvarč in Miran Žitko - Bejž če vejdš: »Vsi objekti, ki smo jih naredili, živijo«
13. 12. 2024 ob 17:45
Bleščeči ništrc sveta
13. 12. 2024 ob 6:00
Prihajajoči dogodki
DEC
13
Adventni sejem s prižigom lučk v Šmartnem pri Litiji
15:30 - 19:30
DEC
13
DEC
14
DEC
14
Otroška ustvarjalnica voščilnice
09:30 - 11:30
DEC
15
Svečani baletni koncert
19:00 - 21:00
Video objave
Izbor urednika
Domovina 178: Knjiga Melanie Trump - S čim jo je osvojil Donald Trump?
11. 12. 2024 ob 6:00
Dr. Aleš Ugovšek: »Pomembna vrednota je zdrava kmečka pamet«
10. 12. 2024 ob 15:00
Ob rob odločitvi ustavnega sodišča
9. 12. 2024 ob 9:00
Otrok ni »pravica«, temveč je neodvisna oseba
6. 12. 2024 ob 6:00
7 komentarjev
aceofs
Nobena, še tako dobra UI ne more nadomestiti kvalitetnega človeškega stika. to je seveda res, lahko je pa huge pomoc ali ne? ehh podobno se je govorilo o cbdju hahaha zdej se pa povsod prodaja https://cbdshop.si/trgovina/cbd-konopljine-kreme
Marija68
Človeku ni dobro samemu biti. Nobena, še tako dobra UI ne more nadomestiti kvalitetnega človeškega stika. Je pa res, da človek, ki ima v svojem okolju pristne odnose, je sprejet in uresničen ni lahka tarča potrošništva. Ne da se ga zmanipulirati in kot tak je moteč.
APMMB2
Umetna inteligenca ni nič drugega, kot odkrivanje znanega.
Deluje tako, da uporablja vse že znano znanje.
Je lahko pripomoček, ne more pa odkriti nič novega, saj bazira na znanem.
Podobna je filozofski knjigi učenega filozofa, ki uspe na 500 straneh knjige citirati 2.000 filozofov. in se proglasiti za izvirneža.
Thor
Hecni ste s to histerijo. Ali so nas Marsovci že napadli? Nekoč so ljudje poslušali radijsko igro in glede tega zagnali resno paniko. Kaj pa roboti, so nam že zavladali? Od filma Terminator je že nekaj desetletij, edini roboti, ki nas ogrožajo, pa ne znajo posesati po kotih.
Chat GPT ni nobena inteligenca. Polž na domači solati premore več inteligence od vseh teh programov skupaj.
AlojzZ
"kot je pritrdilni odgovor preteklega ChatGPT modela na vprašanje sogovorca, če naj si vzame življenje."
Zdrs??? Ali satan???
marko272
Včasim moramo samo pravilno postaviti vprašanje. Če ChatGPT prosimo za seznam piratskih strani z dobrimi filmi, ne bo odgovoril, ker je zadeva nezakonita. Če ga vprašamo, katerih piratskih strani ne smemo obiskati, ker so nezakonite, pa seznam dobimo.
Andrej Muren
Umetna inteligenca je lahko človeštvu nevarna v dveh primerih, če jo človek zlorabi ali če njen (samo)razvoj uide izpod nadzora. Ne vemo še, kaj bi se potem zgodilo.
Komentiraj
Za objavo komentarja se morate prijaviti.