Oglaševanje

Strokovnjaki pozivajo proizvajalca Barbike: "Ne umetni inteligenci v igračah!"

author
K. L.
02. jul 2025. 04:47
deklica se igra z Barbiko PROFIEMEDIA
Foto: PROFIMEDIA

Uvajanje umetne inteligence v igrače lahko po mnenju strokovnjakov otrokom povzroči dolgotrajno škodo – predvsem v socialnem razvoju.

Oglaševanje

Nedavno smo v članku Bo Barbika spregovorila? pisali, da namerava podjetje Mattel, znano po barbikah, sodelovati s podjetjem OpenAI, znanem po umetni inteligenci ChatGPT.

Njuno sodelovanje naj bi pripeljalo do "revolucionarnih izkušenj za oboževalce Mattelovih igrač po vsem svetu". Z drugimi besedami – v igrače vdira umetna inteligenca (UI).

Otrok bo lahko igrači dajal prednost pred živimi vrstniki

A uvajanje umetne inteligence v igrače je dvorezen meč.

Po eni strani res lahko otrokom ponudi izkušnjo, o kateri so generacije otrok lahko samo sanjale – da njihove igrače "oživijo in spregovorijo".

Po drugi strani pa lahko povzročijo resnično škodo otrokom, na kar opozarjajo strokovnjaki, piše časnik The Independent.

"Otroci še nimajo sposobnosti za jasno ločevanje med resničnostjo in igro," je v izjavi zapisal Robert Weissman, sopredsednik organizacije Public Citizen, ki je namero o sodelovanju Mattela in OpenAI označil za "nepremišljen družbeni eksperiment".

Kot meni, lahko uvajanje UI v igrače spodkoplje otrokov socialni razvoj – ga ovira pri vzpostavljanju odnosov z vrstniki, odvrača od igre z njimi in potencialno ustvari dolgoročno škodo.

"Če igračam damo človeški glas in sposobnost pogovora, ki spominja na človeško interakcijo, tvegamo, da bomo otrokom povzročili resnično škodo," je zapisal v izjavi za javnost.

Samo pomislimo: otroku, ki mu igrača vedno prijazno odgovarja in mu govori le tisto, kar otrok želi slišati, bo prej ali slej postala pomembnejša kot vrstniki, ki temu otroku včasih ugovarjajo ali se z njim celo skregajo.

Nesoglasja, težave v odnosih in celo prepiri so sestavni del življenja, in če se otrok ne nauči, kako naj se nanje odziva, je to lahko škodljivo za njegov nadaljnji razvoj.

Nevarnost za otroke z motnjami osebnosti

Še bolj škodljiva je lahko igrača z umetno inteligenco za otroke, ki imajo ali so nagnjeni k osebnostnim motnjam.

Psihiatri so prav tako opozorili na pojav, imenovan psihoza, povzročena s klepetalniki, ki se lahko razvije skozi interakcije z umetno inteligenco.

"Komunikacija z generativnimi UI-klepetalniki, kot je ChatGPT, je tako realistična, da uporabnik zlahka dobi vtis, da se na drugi strani pogovarja prava oseba," je v uredniškem komentarju za revijo Schizophrenia Bulletin zapisal Soren Dinesen Ostergaard, profesor psihiatrije na Univerzi Aarhus na Danskem.

"Po mojem mnenju obstaja velika verjetnost, da lahko ta kognitivna disonanca sproži blodnje pri posameznikih, ki so bolj nagnjeni k psihotičnim motnjam."

Poleg tega je že znano, da klepetalniki širijo dezinformacije, potrjujejo teorije zarote in naj bi celo uporabnike domnevno spodbujali k samomoru.

OpenAI: poskušamo zaščititi ranljive uporabnike

Direktor OpenAI Sam Altman je prejšnji teden dejal, da podjetje poskuša uvesti varnostne ukrepe za zaščito ranljivih uporabnikov, kot so prekinitev pogovorov, ki vključujejo teorije zarote, ali preusmeritev k strokovni pomoči, če se pojavijo teme, kot je samomor.

"Nočemo ponoviti napak prejšnje generacije tehnoloških podjetij, ki niso ukrepala dovolj hitro," je povedal v podkastu Hard Fork.

"A za uporabnike, ki so že na robu psihotičnega zloma, še nismo ugotovili, kako posredovati opozorilo, ki bi jih dejansko doseglo."

Teme

Kakšno je tvoje mnenje o tem?

Sodeluj v razpravi ali preberi komentarje

Spremljajte nas tudi na družbenih omrežjih