Leonardova Mona Lisa "oživjela" s pomoću umjetne inteligencije

Slavna Leonardova Mona Lisa odnedavno uspijeva micati glavom, očima i usnama. S pomoću umjetne inteligencije.

Videosnimka nastala je u Samsungovu moskovskom istraživačkom laboratoriju za umjetnu inteligenciju pri čemu se koristila takozvana 'deepfake' tehnologija koja se sastoji u softverskoj zamjeni lica, piše BBC.

No čini se da su mnogi zabrinuti zbog njezina sve češćeg korištenja jer se može zloupotrijebiti. Naime, stavljajući lica ljudi na druge predloške ovom je tehnologijom moguće stvoriti prilično uvjerljive kopije i lažne videozapise, što su neki dosad koristili za zabavu, no ima i onih koji su to činili s manje plemenitim motivom.





Samsungovi algoritmi isprobani su na javnoj bazi koju čini 7000 fotografija poznatih ličnosti, a one su preuzete s YouTubea.

Sustav umjetne inteligencije mapira crte lica i pokrete, a cilj mu je "oživjeti" fotografiju. Za stvaranje 'deepfakea' koristi se tehnologija neuronskih mreža koja je u stanju aplicirati bilo koje dobro modelirano lice u bilo koji zadani joj kontekst, pa je tako jednog glumca moguće 'prebaciti' u drugi lik. Ovu je tehnologiju iskoristio i Dalijev muzej u St. Peterburgu u američkoj saveznoj državi Floridi, da bi "među žive vratio" slavnoga španjolskog umjetnika.
Slično je postignuto s fotografijama Alberta Einsteina, Fjodora Dostojevskog i Marilyn Monroe.

Znanstvenici sa Sveučilišta u Tel Avivu sličan sustav predstavili su 2017. Lažni video bivšeg američkog predsjednika Baracka Obame napravio je doktor Supasorn Suwajanakorn.

On je za BBC rekao da postoji mogućnost zloupotrebe ovakve tehnologije, no bez sumnje se može koristiti i u pozitivne svrhe. Primjerice, kaže dr. Suwajanakorn, osobe koje su izgubile voljenog člana obitelji mogle bi "oživiti" preminulu osobu i stvoriti njezin avatar.

Znanstvenici otprije upozoravaju da se postupak može iskoristiti kako bi se napravile lažne videosnimke političara. Kažu i da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost. Naime, 'deepfake' tehnologija je, osim za manipulaciju fotografija slavnih osoba upotrijebljena i za kreiranje pornografskih sadržaja.

- Slavne i javne osobe moraju biti svjesne toga da je uvjerljiv lažni video vrlo lako kreirati kada poznajete 'deepfake' tehnologiju, zbog čega o tome treba razgovarati - smatra Dave Coplin, direktor konzultantske kuće "The Envisioners", koja se bavi korištenjem umjetne inteligencije.