Marko Grobelnik o nepričakovanem preboju umetne inteligence in zaskrbljenosti, o ChatGPT kot velikem plagiatorju, o Rdeči kapici in slovenski politiki, o obilici vprašanj in pomanjkanju odgovorov ter o še pametnejših "mašinah", ki so pred vrati.
Marko Grobelnik je eden največjih poznavalcev umetne inteligence v Sloveniji. Je projektni sodelavec v laboratorija za umetno inteligenco na Inštitutu Jožef Stefan, pa tudi strokovni direktor Mednarodnega raziskovalnega centra za umetno inteligenco, ki so ga leta 2020 ustanovili pod okriljem Unesca.
Sodeluje tudi s številnimi mednarodnimi organizacijami. Pri OECD je vodja delovne skupine za “incidente umetne inteligence”, pri zvezi Nato je slovenski predstavnik v odboru za umetno inteligenco.
Z njim smo se pogovarjali o tveganjih in strahovih, ki jih prinaša preboj t.i. generativne umetne inteligence na čelu s ChatGPT, jezikovim modelom z neskončno sposobnostjo ustvarjanja prepričljivih besedil o vseh mogočih tematikah.
Poznam vas kot človeka, ki je vedno zelo pomirjujoče govoril o napredku umetne inteligence in je vedno znal ublažiti strahove, ki so se ob tem pojavljali. V vaših zadnjih izjavah pa čutim določeno mero zaskrbljenosti. Imam prav?
Ja, situacija se je v zadnjem letu, predvsem pa v zadnjih nekaj mesecih, res majčkeno spremenila. Tehnologija, ki jo imenujemo generativna umetna inteligenca, je kar nekako prišla med nas z množico delujočih sistemov za različne namene, od ustvarjanja besedil do slik in celo filmov.
To je na eni strani povzročilo val inovacij, ki so že nekaj časa visele v zraku, a do zdaj niso bile tako dosegljive, na drugi strani pa so ti sistemi kar naenkrat postavili pod vprašaj določene vrste poklicev, v katerih bodo morali ljudje najmanj dobro premisliti, kako se znajti v tem novem okolju, začenši z novinarji, pisci, kreativci in tako naprej.
Vplivala bo tudi na izobraževanje. Učitelji se že sprašujejo, kako se znajti v tem novem svetu. Po eni strani se sprašujejo, kako novo tehnologijo uporabiti za izboljšanje učnega procesa, po drugi strani pa, kako preprečiti goljufije.
Tudi mi kot raziskovalci umetne inteligence smo nekatere projekte opustili, ker so zadeve kar naenkrat tako dobro rešene, da se vanje ne izplača več vlagati našega truda.
Zadeve se odvijajo tako hitro, da praktično ne mine teden, da se ne bi pojavilo nekaj novega.
To so zgodnji signali za nekaj, kar pa prihaja še veliko bolj intenzivno, verjetno še letošnje leto ali pa recimo v naslednjih nekaj letih.
V današnjem dosjeju o umetni inteligenci objavljamo še članek o tem, kako umetna inteligenca počne stvari, na katere nismo pripravljeni.
Kaj lahko pričakujemo?
Prihaja val, kjer bo veliko ljudi zmedenih. Številni so zmedeni že zdaj. Zmedeni so denimo regulatorji. Pripravljanje zakonodaje s področja umetne inteligence poteka že zadnjih nekaj let, ampak z dokaj umirjenim tempom.
Trenutni val generativne umetne inteligence pa je vse skupaj zelo pospešil. Trenutno imamo več vprašanj kot odgovorov. Ne mislim, da bi bilo treba delati paniko, je pa treba nekatere stvari malo na novo premisliti.
Ob tem je treba povedati, da to ni tehnologija, ki zares razume svet in na katero se lahko popolnoma zanesemo. Gre za tehnologijo, ki pravzaprav vzame človeško delo – besedila, slike, filme, glasbo in tako naprej – in jo nekako skombinira ali pa do te mere preoblikuje, da je videti originalna.
Velika nevarnost nove tehnologije je lahkotnost ustvarjanja in širjenja dezinformacij. Saj je bilo že do zdaj tega precej, s ChatGPT pa je mogoče prepričljivo teorijo zarote in spremljajoče objave proizvesti v nekaj minutah.
Lažna fotografija papeža Frančiška v beli puhovki, ki jo je ustvaril generator slik Midjourney. Slika je prejšnji mesec postala viralna, ljudje pa so sprva mislili, da je resnična. Šlo je za prvo viralno dezinformacijo, ki jo je proizvedla generativna umetna inteligenca. Izkazalo se je, da jo je Midjourney ustvaril na zahtevo 31-letnega gradbenika iz Chicaga, ki se je pod vplivom norih gob malo igral.
Velikokrat za ponazoritev sposobnosti umetne inteligence uporabljate zgodbo o Rdeči kapici, češ saj umetna inteligenca še vedno ne zna razumeti niti otroške pravljice. Ali lahko rečemo, da jo ChatGPT na neki ravni razume? Če mu ukažemo, naj nam napiše povzetek, bo to storil brez težav.
Še vedno je ne razume, zna pa neverjetno dobro operirati s to vsebino. Ne samo povzetek, narediti zna denimo tudi miselni vzorec pravljice.
Pred nekaj dnevi, ko so me dijaki na eni od srednjih šol spraševali, kako bi si lahko s ChatGPT pomagali pri maturi, smo z njegovo pomočjo naredili miselni vzorec za Antigono, potem pa smo mu ukazali še, naj napiše esej o tej knjigi, za katerega so tudi učitelji rekli, da bi šel skozi na maturi.
Ne samo, da zna delati dobre povzetke, vsebino zna tudi po želji prilagoditi. Če ukažemo, naj napiše zgodbo o Rdeči kapici, v kateri bo volk pozitiven lik, v nekaj sekundah dobimo zgodbo istega obsega, kjer se kar naenkrat volk pojavi kot pozitivec, ki priskoči na pomoč.
Enkrat sem mu ukazal tudi, naj v zgodbo o Rdeči kapici vplete slovensko politiko. Končala se je tako, da sta Rdeča kapica in babica postali aktivistki.
ChatGPT je izjemno dober v prepletanju vsebin, ki so bile že nekje nekoč zapisane.
Skratka, veliki vsemogočni plagiator?
Veliki, ampak tudi zelo domiselni plagiator.
V zadnjem času ste večkrat poudarili, da se je pri novem valu generativne umetne inteligence prvič zgodilo, da “ne vemo, zakaj zadeva deluje tako dobro”. Ob tem sem se malo zdrznil. Ali se vam ne zdi to razlog za skrb? Kako lahko potem sploh z gotovostjo vemo, da imamo še vedno popoln nadzor nad sistemom?
Slučajno poznam direktorja Googlovega projekta LaMDA, ki je nekakšen njihov ekvivalent ChatGPT. Ima vpogled v celotno zadevo, hkrati pa tudi dolgo zgodovino dela v umetni inteligenci. Kot mi je povedal, ga zadeva še vedno vsak dan znova preseneča.
Skrivnost uspeha ChatGPT je, da črpa iz praktično celotnega korpusa digitaliziranega znanja, ki ga je človeštvo sproduciralo skozi tisočletja. To pomeni bolj ali manj celoten splet, vse knjige, članke …
Pomislite, koliko lahko en človek v življenju prebere. Recimo tisoč knjig, pa kakih 10 tisoč člankov in tako dalje … Pri ChatGPT pa se pogovarjamo o milijardah. Na voljo ima praktično vse informacije, ki so že bile nekje zapisane.
Ampak če strokovnjakom ni jasno, zakaj generativna umetna inteligenca deluje tako dobro, kako bomo potem vedeli, kdaj bo začela delovati predobro?
Predobro bo delovala takrat, ko se bodo začele pojavljati povratne zanke, ko sistem ne bo več popolnoma odvisen od naših navodil, ko se bo začel bolj ali manj avtonomno odzivati in se odločati. Takrat bo to postalo nevarno.
Tukaj se lahko navežemo na vprašanje, zakaj še vedno nimamo samovozečih avtomobilov. V prvi vrsti zato, ker bi to vključevalo avtomatske povratne zanke. Avto bi se moral sam odločati, kdaj pospešiti, kdaj zavirati, kdaj zaviti levo, kdaj desno itd. Zaradi vseh potencialnih nevarnosti ali pa nedoločenosti, ki so še povezane z avtonomno vožnjo, še niso prišli v splošno uporabo.
ChatGPT in preostali sistemi generativne umetne inteligence še vedno zgolj čakajo na človekov ukaz. Ko bo enkrat človek izpadel iz te zanke, takrat pa bo to težava.
Gledal sem vaše predavanje na nedavnem Tednu možganov, kjer ste omenili, da se zdaj spreminja definicija umetne inteligence in da človek ni več del definicije. Lahko to pojasnite?
Leta 2019 smo na OECD sprejeli definicijo umetne inteligence. Jaz sem bil vodja delovne skupine. V prvem stavku definicije je med drugim zapisano, da umetna inteligenca zasleduje “cilje, ki jih je določil človek”.
Ob pojavu ChatGPT in drugih sistemov generativne umetne inteligence smo se bili prisiljeni vprašati, ali beseda “človek” še spada v definicijo. Človek se namreč tu in tam že začenja umikati. Imamo primere, ko mašina daje navodila mašini.
To lahko denimo vidite pri generatorju podob Midjourney. Dober ukaz (angl. prompt) za to, da vam bo Midjourney izdelal želeno sliko, je tako zapleten, da ga je lažje sestaviti s ChatGPT.
Naš predlog nove definicije tako ne omenja več “jasno definiranih ciljev, ki jih je določil človek”, temveč govori o tem, da umetna inteligenca zasleduje “implicitne in eksplicitne cilje”.
Ali moramo ob tem res čakati dodatne opozorilne znake, da bi nas začelo skrbeti?
Ne, saj tudi ne čakamo. Regulacija se dogaja na več ravneh. Evropska unija pri tem izrazito prednjači. V Bruslju je že bolj ali manj pripravljen dokument, ki naj bi urejal in omejeval uporabo umetne inteligence. Pričakuje se, da naj bi bil sprejet do leta 2025.
S to zakonodajo bomo skušali regulirati, kaj se sme in česa ne, kakšna uporaba je povsem neškodljiva, katera pa tvegana in zahteva poostren nadzor, certifikacijo in kakšna uporaba je prepovedana. Podobno kot z zdravili, ki morajo skozi postopek registracije.
Debata o tem dokumentu je, kolikor jo opazujem, zelo burna, zanimiva, lahko pa bi bila bolj kompetentna in strokovna, namesto da se vanjo mešajo politika in lobiji. Marsikatera industrija si ne bi želela biti regulirana.
Je pa zdaj ChatGPT, skupaj z drugimi sistemi generativne umetne inteligence, v to razpravo prinesel dobršno mero nedoločenosti, nove vidike in dejavnike, ki jih bo treba na novo premisliti.
Ta dokument je v pripravi že več let. Do njegovega sprejetja bosta, kot pravite, pretekli še kaki dve leti. Medtem se je v zadnjega pol leta, s prihodom novih sistemov, vse spremenilo. Zelo očitno je, da regulativa ne zmore slediti razvoju tehnologije.
Po mojem mnenju so regulatorni mehanizmi še vedno dovolj močni, da lahko ustavijo ali pa vsaj nekako regulirajo zadeve do te mere, da nam tehnologija ne bo škodovala. Če v to ne bi verjel, seveda ne bi niti sodeloval v tem procesu.
Je pa dejstvo, da so zakonodajni postopki veliko počasnejši od trenutnega tempa razvoja tehnologije. Mislim, da se na našem koncu sveta vsi vpleteni zavedamo odgovornosti in potencialnih pasti.
Ne vemo pa, kako na to tehnologijo gledajo v drugih, morda manj demokratičnih delih sveta. Tukaj vsekakor obstaja nevarnost za zlorabo, saj gre za tehnologijo, ki jo je mogoče uporabiti praktično kjerkoli. Potrebujete samo veliko količino podatkov, algoritme, ki so javno objavljeni, in pa veliko procesne moči, ki jo vsaj večje države vsekakor lahko zagotovijo.
Gre torej za orodje, ki utegne povzročiti velike socialne probleme, ki bo verjetno še povečalo razslojenost in polarizacijo družbe in ki je idealno orodje v rokah avtokratov. Mi pa zgolj od strani kimamo in ga sprejemamo kot dejstvo, ki se mu bo pač treba postopno prilagoditi. Ali ne bi morali biti bolj zaskrbljeni in previdni?
Vse skupaj se je odvilo tako hitro, da niti ni bilo pravega časa za reakcijo. Vsi skupaj smo še vedno nekako presenečeni. Celotna znanstvena skupnost se sprašuje, kako smo lahko nekaj takega spregledali.
Ni pa čisto res, da samo kimamo. Vsaj nekaj sto ljudi v Evropi o tem aktivno razmišlja in premleva o možnosti regulacije v luči neželenih učinkov, ki lahko iz tega nastanejo.
Kot rečeno, pa imamo ta trenutek res še vedno več vprašanj kot odgovorov, ker tudi ne vemo, kako se bo ta stvar še naprej razvila. Ne poznamo vseh posledic, nismo povsem prepričani, kaj sledi.
Učinki različnih izpeljank generativne umetne inteligence se bodo prepletali in lahko pridejo v nekakšno resonanco, kar utegne povzročiti učinke, ki jih v tem trenutku enostavno ne pričakujemo.
Že v kratkem bo namreč ta “mašinerija” postala še bistveno bolj pametna.
O čem govorite?
Pred dvema tednoma je družba OpenAI, stvariteljica ChatGPT, predstavila mehanizem vtičnikov. To pomeni, da bo ChatGPT za tista področja, na katerih se še ne znajde najbolje, lahko za pomoč poklical druge sisteme, ki so bolj specializirani za določena področja.
To je nekaj, kar se bo pojavilo v nekaj tednih. Ko se to zgodi, se bo občutek vsemogočnosti ChatGPT v trenutku še povečal. Lahko pričakujete veliko čudenja. Kar naenkrat bo ChatGPT do potankosti obvladal vse naravoslovne znanosti. Vsak, še tako neuk študent, bo lahko reševal najbolj kompleksne matematične probleme. In takšnih vtičnikov bo čedalje več.
Torej bo še veliko praskanja po glavi …
Že zdaj se čudimo, ko imamo opravka s ChatGPT, kjer imamo pretežno opravka z besedili, in pa denimo z Midjourney, ki res producira tako realistične slike, da se človek zdrzne. Ampak pred vrati so tudi instantni filmi.
Tehnologija že deluje, vendar zaradi velikanske procesne moči, ki je potrebna, še ni v masovni uporabi. Ampak ko bo, naenkrat morda ne bomo mogli več verjeti tistemu, kar vidimo po televiziji.
Seveda imamo že danes filme, ki prikazujejo izmišljene prizore in ki so na vse mogoče načine računalniško obdelani. A trenutno gre pri tem za neke drage produkcije, kmalu pa bo lahko takšne izmišljene filmske prizore ustvarjal vsak otrok.
Skupina intelektualcev je nedavno s peticijo pozvala k polletnemu moratoriju za nadaljnji razvoj umetne inteligence, da bi lahko malo bolj v miru razmislili, kako naprej. Dlje kot vas poslušam, bolj se mi zdi to smiseln predlog. Pa vam?
Morda je smiseln v konceptualnem smislu, da je treba zadevo dobro premisliti. Dvomim pa, da bi bila lahko ena taka peticija podlaga, da bi se zaustavitev razvoja dejansko tudi zgodila. Strokovna javnost pri tem nikakor ni enotna.
To peticijo razumem kot opozorilo, nikakor pa ne mislim, da bi se lahko zgodilo, da bodo podjetja in univerze po vsem svetu ustavili razvoj. V ozadju trenutnega hitrega razvoja je tudi tekma. Tisti, ki bo hitrejši, bo lahko zavzel večji del trga.
Poleg tega sem prepričan, da bi glede tega vprašanja težko dosegli mednarodni konsenz. Kitajska tega po mojem zagotovo ne bi sprejela.
Ampak očitno je potencialnih slabih scenarijev pri nadaljnjem razvoju tehnologije precej več kot dobrih?
No, dobrih je tudi veliko. Vseeno bi rad poudaril, da smo v znanosti ob razvoju novih tehnologij dovolj pametni, da poskrbimo za ustrezne varovalke v sistemu. Vsaj do zdaj je vedno bilo tako.
V tem trenutku je sicer dejansko videti, kot da nimamo čisto pravih varovalk, kar pa ne pomeni, da jih ne bomo imeli denimo čez pol leta.
Razvoj tehnologije in varovalk gre praviloma z roko v roki, v tem trenutku pa smo res majčkeno izgubljeni.
Vse nas skrbi. Ne verjamem pa, da bomo to lahko reševali s peticijami.
Ne bi bila v takem primeru, ko so razmere nejasne, ko ni mogoče izključiti uničujočih posledic, na mestu uporaba previdnostnega načela? Občutek imam, kot da si številni strokovnjaki ne upate izražati prevelike zaskrbljenosti, ker ne želite tvegati očitkov, da širite paniko.
Zagotovo vsi akterji o tem aktivno razmišljamo. O tem razmišljajo tudi v podjetjih, kjer te tehnologije nastajajo. Tudi tam se oglašajo zaskrbljeni glasovi. Močno pa dvomim, da bo katerokoli od velikih podjetij, ki se ukvarjajo s tem, pripravljeno načrtno zaustavljati napredek in tvegati tehnološki zaostanek za konkurenti.
Ob tem je treba poudariti, da se s tem dejansko lahko ukvarjajo zgolj največja tehnološka podjetja, vsi ostali smo bolj kot ne opazovalci, ker enostavno nimamo primerljive strojne opreme. Znanje imamo, podatke bi bolj ali manj tudi lahko pridobili, a tudi če damo na kup vse računalniške zmogljivosti v Sloveniji, nimamo niti slučajno dovolj procesne moči, da bi jim lahko konkurirali.
Moč je torej spet še bolj skoncentrirana v rokah peščice tehnoloških gigantov s pomanjkljivim demokratičnim nadzorom, katerih prvenstvena motivacija je še vedno dobiček, ne pa dobrobit sveta.
Dobiček je vsekakor pomemben element, je pa po mojem mnenju tudi družbena odgovornost teh podjetij na višji ravni kot nekoč. Google je denimo po mojem mnenju danes družbeno precej bolj odgovorno podjetje, kot je bil pred 15 leti.
Ta velika podjetja so se po mojem mnenju začela zavedati, da si bodo z neodgovornim vedenjem in maksimiziranjem dobička odžagala vejo, na kateri sedijo. Je pa odvisnost sveta od teh podjetij nenormalno velika. Od njihovih strežnikov so odvisni številni življenjsko pomembni sistemi. In mislim, da to vse skrbi.
Izdelkov umetne inteligence praktično ni več mogoče ločiti od človeških stvaritev, tudi različna sofisticirana orodja za detekcijo je mogoče dokaj preprosto zaobiti. Nakazuje se popolno porušenje zaupanja v avtorstvo in razvrednotenje ustvarjalnosti posameznika.
Na način, kot smo ustvarjalnost razumeli do zdaj, verjetno res. V zadnjem času imam pogosto pogovore z učitelji, profesorji. Gotovo bodo potrebne spremembe. Izobraževalni proces bo treba prilagoditi. Prva misel je, da bi bilo verjetno smiselno bolj poudariti medosebno raven, človeški stik tako pri učenju kot pri preverjanju znanja.
ChatGPT ne bo izginil. Tudi če ga ugasnejo, ga bo naredil nekdo drug. Nekoliko manjše verzije tega sistema si lahko praktično vsak raziskovalni oddelek že danes naloži na svoje računalnike. To tudi praktično vsi že počnemo.
Torej, stvar ne bo izginila, ni je mogoče ustaviti. Treba pa jo je na primeren način vgraditi v naša življenja. Ljudi je treba izobraziti o uporabi teh orodij, temu pa je treba dodati tudi zvrhano mero kritičnega razmišljanja, ki je v današnji družbi zelo pomanjkljivo.
Če pogledava realno življenje okoli naju, lahko rečeva, da bo to vse prej kot lahka naloga, glede na to, kako nekritično številni ljudje že danes konzumirajo informacije.
Ja, a če bo zdaj ta kaplja dezinformacij šla čez rob – in trenutno je videti, kot da utegne iti – bo verjetno morala slediti tudi kakšna reakcija ljudi v obnašanju, v kritičnosti do tehnologije.
Ampak poglejte, že danes se v glavnem zanašamo na to, kar nam servira umetna inteligenca. Tudi v Googlovem iskalniku se običajno zadovoljimo z rezultati na prvi strani zadetkov, ker so običajno dovolj dobri za naše potrebe in ker nam to vzame najmanj časa.
Kaj vas navdaja z mirnostjo v tem trenutku?
Kot prvo me pomirja dejstvo, da je umetna inteligenca, ki jo danes uporabljamo, še vedno zelo “plitka”, mnogo preveč plitka, da bi lahko počela nevarne reči. Je sicer močno orodje, a ne gre za umetno inteligenco, kot jo poznamo iz znanstvenofantastičnih filmov in kakršne bi se morali upravičeno bati. Sistemi generativne umetne inteligence so pravzaprav zelo dobri v simuliranju inteligence.
Kot drugo se mi zdi, da panika in kategorično zavračanje tehnologije ne bi nič pomagali. Ker je to moje strokovno področje, se mi zdi, da imam dovolj kompetenc, da se s temi stvarmi soočam premišljeno. Če strokovnjaki ne bomo ohranjali mirnosti, kdo jo pa bo?
Kot tretje pa sem zraven pri razpravah in naporih za regulacijo umetne inteligence na evropski ravni in menim, da se lahko zanesemo na to, da bomo tehnologijo držali pod demokratičnim nadzorom. Se pa strinjam, da bi lahko brez nadzora postala nevarna.
Spremljajte N1 na družbenih omrežjih Facebook, Instagram in Twitter.
Naložite si našo aplikacijo: na voljo za android in za iOS.
Kakšno je tvoje mnenje o tem?
Sodeluj v razpravi ali preberi komentarje