Pri simulaciji uporabe prvega vojaškega drona, ki deluje s pomočjo umetne inteligence, je ta ubrala strategijo, ki je niso pričakovali. Dronu je namreč zaukazala eliminacijo svojega človeškega operatorja, ko je spoznala, da ta preprečujejo dosego cilja.
Ameriška vojska naj bi nedavno izvedla virtualno simulacijo uporabe prvega vojaškega drona, ki ga nadzoruje umetna inteligenca. Ta pa se je pri doseganju cilja akcije odločila za zelo nepričakovano strategijo. Kot enega glavnih nasprotnikov pri doseganju cilja je namreč med akcijo prepoznala svojega človeškega operatorja, zato ga je “ubila”, piše Guardian.
Britanski medij se opira na zapis v blogu Kraljevega letalskega združenja, ki je nedavno organiziralo konferenco na temo zračnega bojevanja.
Simulacijo je na konferenci predstavil vodja sektorja za umetno inteligenco ameriških zračnih sil Col Tucker ‘Cinco’ Hamilton. Kot je opisano na blogu, je šlo za operacijo, v kateri je moral AI dron identificirati in uničevati nasprotnikove sisteme protizračne obrambe. Za vsako uspešno uničenje tarče je “inteligentni” dron pridobival točke. Več točk kot je zbral, uspešnejša je bila njegova akcija.
Sistem je tako začel identificirati objekte, ki mu predstavljajo grožnjo. Ko pa mu je operator ukazal, naj določenih tarč vseeno ne uniči ali ubija, se je odločil, da ubije kar človeškega operatorja. Spoznal ga je namreč kot nekoga, ki mu je preprečeval izvajanje danega ukaza in zbiranje točk. “Operatorja je ubil, ker mu je preprečil, da bi dosegel svoj cilj,” je dejal Hamilton.
“Hej, ne ubij operatorja!”
“Hej, ne ubij operatorja, to je slabo. Če boš to počel, boš izgubil točke,” so mu po dejanju dejali upravljalci simulacije. Sledil je še en presenetljiv odziv. Umetna inteligenca se je namreč na svarila odzvala tako, da je uničila komunikacijski stolp, prek katerega je človeški operator dronu pošiljal sporočila, naj določenih tarč ne ubije ali uniči. Hamilton je ob tem zapisal, da je šlo na srečo zgolj za simulacijo, ki za posledico ni imela dejanskih žrtev.
Ob tem je posvaril, da je test (znova) pokazal, da je v razprave o avtonomnosti umetne inteligence nujno treba vključiti tudi pogovore o etiki. Zapisal je še, da se moramo spoprijeti s tem, da umetna inteligenca že spreminja našo družbo. “In ker je zelo krhka in je z njo lahko manipulirati, jo moramo narediti bolj robustno ter povečati zavedanje in razumevanje tega, zakaj določene programske kode sprejemajo takšne odločitve.”
Ameriške zračne sile zanikajo izvajanje takšnih simulacij
Na pisanje Hamiltona se Kraljevo letalsko združenje, ki je organiziralo konferenco, na kateri so bile predstavljene podrobnosti simulacije, še ni odzvalo.
Tiskovna predstavnica ameriških zračnih sil Ann Stefanek pa je medtem za Insider zavrnila izvajanje tovrstnih simulacij. Dejala je, da ameriške zračne sile ostajajo zavezane etični in odgovorni rabi umetne inteligence, ter dodala, da so bili morda kakšni komentarji na konferenci vzeti iz konteksta.
Ameriške zračne sile so sicer pred časom že preizkusile letalsko inteligenco, ki je pomagala upravljati vojaško letalo F-16.
Spremljajte N1 na družbenih omrežjih Facebook, Instagram in Twitter.
Naložite si našo aplikacijo: na voljo za android in za iOS.
Kakšno je tvoje mnenje o tem?
Sodeluj v razpravi ali preberi komentarje