Pokušaji korištenja umjetne inteligencije (AI) za stvaranje borbenih robota riskiraju otvaranje brane i davanje neovisne snage volje robotima, kaže osnivač kineske tehnološke tvrtke.
22.04.2024.
08:57
Autor: J.S./HTV/Reuters
Pokušaji korištenja umjetne inteligencije (AI) za stvaranje borbenih robota riskiraju otvaranje brane i davanje neovisne snage volje robotima, kaže osnivač kineske tehnološke tvrtke.
Tijekom nedavne panel rasprave na Kineskoj središnjoj televiziji (CCTV), Zhou Hongyi, osnivač tvrtke za internetsku sigurnost 360 Security Technology, upozorio je na opasnosti korištenja umjetne inteligencije.
Zhou je istaknuo pitanje vjerodostojnosti i kontrole sadržaja u doba umjetne inteligencije.
- Hitan problem je vjerodostojnost, uporabljivost i mogućnost kontrole sadržaja koji generira AI. Najveća razlika između umjetne inteligencije i tražilice je ta što tražilica nema inteligenciju te pretražuje i dohvaća sadržaj koji već postoji. Ako nema ničega, tražilica će to i pokazati. Međutim, AI sustav može izmisliti stvari koje ne postoje. Dakle, AI se može koristiti za prijevaru ili čak za intervenciju na predsjedničkim izborima. Može utjecati na izborne rezultate, pa čak i na mir u svijetu, rekao je Zhou.
Zhouova zabrinutost proteže se izvan manipulacije sadržajem na područje autonomnog oružja. Američki mediji izvijestili su da je OpenAI, tvorac ChatGPT-ja, tiho povukao zabranu vojne upotrebe ChatGPT-ja i njegovih drugih alata za umjetnu inteligenciju te je počeo surađivati s američkim Ministarstvom obrane.
Zhou je izrazio zabrinutost zbog mogućnosti da roboti pokretani umjetnom inteligencijom donose odluke o životu ili smrti bez ljudske intervencije.
- Jučer me iznenadila vijest da se AI koristi u razvoju oružja, točnije borbenih robota, od kojih neki imaju krila ili kotače, a neki gusjenice ili noge. Ako stvarno želite razviti borbenog robota, morate mu dati pravo da povuče obarač. Drugim riječima, robot može sam odlučiti otvoriti vatru na ljudska bića. Budući da robot nema svijest, možete ga programirati s dubokom funkcionalnošću i osnažiti ga neovisnom snagom volje.
- Ako robot ima program koji mu govori da preživi, to predstavlja neku vrstu svijesti. Tada će njegovo ponašanje postati nepredvidljivo. To znači da će se otvoriti nova Pandorina kutija. Dakle, možete razumjeti kontradiktorne i pomiješane osjećaje znanstvenika poput J. Roberta Oppenheimera kada su otvorili Pandorinu kutiju nuklearnih bombi, rekao je.
Zhouova upozorenja dolaze usred rastuće međunarodne rasprave o etičkim implikacijama umjetne inteligencije. Kako AI tehnologija nastavlja napredovati, ključno je razmotriti potencijalne rizike.
Vijesti HRT-a pratite na svojim pametnim telefonima i tabletima putem aplikacija za iOS i Android. Pratite nas i na društvenim mrežama Facebook, Twitter, Instagram, TikTok i YouTube!
Autorska prava - HRT © Hrvatska radiotelevizija.
Sva prava pridržana.
hrt.hr nije odgovoran za sadržaje eksternih izvora