10/10/2020
Deepfakes su relativno nova stvar i šira javnost još uvijek nije svjesna mogućnosti i prijetnji ove nove tehnologije.
Iz nedavno objavljenog izvješća SOA-e (Sigurnosno-obavještajne agencije) vidljivo je da su i domaći obavještajci prepoznali ozbiljnu prijetnju koju deepfake predstavlja za nacionalnu sigurnost.
Na dvije stranice se izvještava o deepfake tehnologiji, navodi se da “Naziv deepfake kombinira engleske pojmove za duboko učenje (deep learning) kao segmenta umjetne inteligencije te lažno (fake) čime se označava manipuliranje i umjetno generiranje videa… Zloporaba ove tehnologije predstavlja rastuću prijetnju privatnosti i nacionalnoj sigurnosti, a širenje deepfake uradaka može razorno utjecati na podjele u društvu i urušiti povjerenje građana u državne institucije i medije…Već sada se vode rasprave o načinima sprječavanja zloporabe deepfake videa, a jedna od zadaća sigurnosnih sustava država bit će u iznalaženju načina prepoznavanja deepfake videa i sprječavanju njihova negativnog učinka na demokratske i sigurnosne procese.”
Izvještaj SOA-e nadahnuo me da provjerim pojam deepfake u Google Trendsu i, moram priznati, nisam se razočarao, naprotiv.
Umjetna inteligencija
Google Trends po prvi puta (u Hrvatskoj) termin prepoznala u siječnju 2018., godine. Zanimanje za taj pojam s vremenom je variralo, pojačalo se krajem kolovoza 2019., a ponovno je imalo tendenciju jakog rasta u pretraživanju nedavno, krajem rujna, netom nakon što je objavljeno spomenuto izvješće. S druge strane, kada pogledamo učestalost rezultata pretraživanja za cijeli svijet, prvi zabilježeni rezultati mogu se vidjeti u listopadu 2017., s naglim povećanjem interesa u veljači 2018. Opće zanimanje za taj pojam odtad je manje – više u kontinuiranom porastu, iako u zadnje vrijeme čak i opada. Zanimljivo je da se riječ deepfake uglavnom gugla u istočnim zemljama, poput Južne Koreje, Kine, Hong Konga i drugih. Moglo bi se zaključiti da je to pitanje od veće važnosti u tehnološki naprednijim dijelovima svijeta.
Krenimo od definicije – Rječnik Merriam-Webster definira da se pojam deepfake obično “koristi za videozapis koji je uređen pomoću algoritma za zamjenu osobe u izvornom videozapisu nekom drugom (posebno javnom osobom) na način da zapis izgleda autentično. ” Riječ je dodana u Rječnik u travnju 2020., pa se može reći da se radi o novom terminu, barem za širu publiku. Wikipedia napominje da je pojam deepfakes nastao krajem 2017. od strane korisnika Reddita pod imenom “deepfakes” koji je, kao i drugi u zajednici Reddit, stvarao videozapise na kojima su lica poznatih osoba ‘zalijepljena’ na tijela glumica u ‘filmovima za odrasle’. Ne-pornografski sadržaj obuhvaćao je mnoštvo videa s licem glumca Nicolasa Cagea ‘ubačenim’ u razne filmove.
Kao ilustraciju velikih mogućnosti ove tehnologije, pogledajte i ovaj kratki video koji u glavne uloge filma Povratak u budućnost ‘stavlja’ Toma Hollanda i Roberta Downeya Jr. (umjesto Michaela J. Foxa i Christophera Foxa). Ovaj deepfake napravio je Youtuber EZRyderX47 prije 7 mjeseci i od tada je imao preko 10 milijuna pregleda. Osoba koja je napravila ovaj isječak napravila je i mnoge druge deepfakeove, obično na taj način (zamjenjujući lica glumaca u poznatim filmovima).
Zabava je zabava, a zgodno je i kada fake Putin i Kim Yong-Un američke glasače nagovaraju da izađu na predstojeće izbore. Ova dva deepfake videa koja možete pogledati na stranici MIT Technology Review napravljena su za desetak dana i s minimalnim ulaganjima.
Manipulacija sadržajem
Međutim, slučaj manipuliranog videa Nancy Pelosy, koji su na Twitteru podijelili predsjednik Trump, a na Facebooku njegovi fanovi, baš i nije toliko smiješan. Dapače, montirani video iz svibnja 2019. na Trumpovom je profilu imao više od 2,2 milijuna pregleda, a isječak možete pogledati u kratkom prilogu CBS-a. Video je prerađen na jednostavan način, usporen je za 25%, i vrlo je dobar primjer (i blagi) onoga što je manipulacija video sadržajima sposobna postići. Prerađeni videozapis postao je viralan, a ubrzo se pokazalo da se radilo o pokušaju desnice da diskreditira i osramoti Pelosy čineći je pijanom, zbunjenom ili čak bolesnom.
Zanima li vas kako bi izgledao video u slučaju da je misija Apolo 11 pošla po zlu i da se astronauti nisu mogli vratiti kući? Nema problema, u sklopu umjetničkog projekta In Event of Moon Disaster koji “istražuje utjecaj i rasprostranjenost dezinformacija i deepfake tehnologija u suvremenom društvu” napravljen je sjajan deepfake uradak. Govor za tragičnu mogućnost ishoda misije predsjednik Nixon nikad nije održao, no ‘umjetničku’ verziju možete pogledati ovdje. U izradi videa korištene su tehnike dubokog učenja za stvaranje sintetskog glasa Nixona kao i za uporabu tehnika zamjene dijaloga za preslikavanje pokreta Nixonovih očiju i usana.
Izvješće znanstvenika s University College London iz kolovoza tvrdi da je deepfake najopasniji oblik kriminala koji se može ostvariti korištenjem umjetne inteligencije (AI). Prema istraživanju provedenom lani na više od 1.000 stručnjaka za odnose s javnošću u SAD-u (Plank Center for Leadership in PR), ‘lažne vijesti’ ozbiljnim problemom smatra gotovo 60% stručnjaka, a upotreba deepfake tehnologije, u glasovnoj ili vizualnoj formi, među četiri je glavna izazova s kojima će se tvrtke koje rade u PR sektoru morati suočiti u 2020.
Napisao: Lordan Prelog
foto: Pixabay