Deepfakes su relativno nova stvar i šira javnost još uvijek nije svjesna mogućnosti i prijetnji ove nove tehnologije.
Iz nedavno objavljenog
izvješća SOA-e (Sigurnosno-obavještajne agencije) vidljivo je da su i domaći obavještajci prepoznali
ozbiljnu prijetnju koju
deepfake predstavlja za nacionalnu sigurnost.
Na dvije stranice se izvještava o
deepfake tehnologiji, navodi se da “Naziv
deepfake kombinira engleske pojmove za
duboko učenje (
deep learning) kao segmenta umjetne inteligencije te lažno (
fake) čime se označava manipuliranje i umjetno generiranje videa… Zloporaba ove tehnologije predstavlja rastuću prijetnju privatnosti i nacionalnoj sigurnosti, a širenje
deepfake uradaka može
razorno utjecati na podjele u društvu i urušiti povjerenje građana u državne institucije i medije…Već sada se vode rasprave o načinima sprječavanja zloporabe
deepfake videa, a jedna od zadaća sigurnosnih sustava država bit će u iznalaženju načina prepoznavanja
deepfake videa i sprječavanju njihova negativnog učinka na
demokratske i sigurnosne procese.”
Izvještaj SOA-e nadahnuo me da provjerim pojam
deepfake u
Google Trendsu i, moram priznati, nisam se razočarao, naprotiv.
Algoritmi i umjetna inteligencija
Tražilica je prvi put (
u Hrvatskoj) termin prepoznala u siječnju 2018., jer, kao i obično, mrvicu kasnimo s trendovima. Zanimanje za taj pojam s vremenom je variralo, pojačalo se krajem kolovoza 2019., a ponovno je imalo tendenciju jakog rasta u pretraživanju nedavno, krajem rujna,
netom nakon što je objavljeno spomenuto izvješće. S druge strane, kada pogledamo učestalost rezultata pretraživanja za
cijeli svijet, prvi zabilježeni rezultati mogu se vidjeti u listopadu 2017., s naglim povećanjem interesa u veljači 2018. Opće zanimanje za taj pojam odtad je manje – više u kontinuiranom porastu, iako u zadnje vrijeme čak i opada. Zanimljivo je da se riječ
deepfake uglavnom gugla u istočnim zemljama, poput Južne Koreje, Kine, Hong Konga i drugih. Moglo bi se zaključiti da je to pitanje od
veće važnosti u tehnološki naprednijim dijelovima svijeta.

Krenimo od definicije – Rječnik
Merriam-Webster definira da se pojam
deepfake obično “koristi za
videozapis koji je uređen pomoću algoritma za zamjenu osobe u izvornom videozapisu nekom drugom (posebno javnom osobom) na način da zapis
izgleda autentično. ” Riječ je dodana u Rječnik u travnju 2020., pa se može reći da se radi o novom terminu, barem za širu publiku. Wikipedia napominje da je pojam
deepfakes nastao krajem
2017. od strane korisnika Reddita pod imenom “deepfakes” koji je, kao i drugi u zajednici
Reddit, stvarao videozapise na kojima su lica poznatih osoba ‘zalijepljena’ na tijela glumica
u ‘filmovima za odrasle’. Ne-pornografski sadržaj obuhvaćao je mnoštvo videa s licem glumca Nicolasa Cagea ‘ubačenim’ u
razne filmove.
Kao ilustraciju velikih mogućnosti ove tehnologije, pogledajte i
ovaj kratki video koji u glavne uloge filma Povratak u budućnost ‘stavlja’ Toma Hollanda i Roberta Downeya Jr. (umjesto Michaela J. Foxa i Christophera Foxa). Ovaj
deepfake napravio je Youtuber
EZRyderX47 prije 7 mjeseci i od tada je imao
preko 10 milijuna pregleda. Osoba koja je napravila ovaj isječak napravila je i mnoge druge deepfakeove, obično na taj način (zamjenjujući lica glumaca u poznatim filmovima).
Zabava je zabava, a zgodno je i kada
fake Putin i Kim Yong-Un američke glasače nagovaraju da izađu na predstojeće izbore. Ova
dva deepfake videa koja možete pogledati na stranici MIT Technology Review napravljena su za desetak dana i s minimalnim ulaganjima.
Manipulacija sadržajem
Međutim, slučaj
manipuliranog videa Nancy Pelosy, koji su na Twitteru podijelili predsjednik Trump, a na Facebooku njegovi fanovi, baš i nije toliko smiješan. Dapače, montirani video iz svibnja 2019. na Trumpovom je profilu imao više od 2,2 milijuna pregleda, a isječak možete pogledati u kratkom
prilogu CBS-a. Video je prerađen na jednostavan način,
usporen je za 25%, i vrlo je dobar primjer (i blagi) onoga što je manipulacija video sadržajima sposobna postići. Prerađeni videozapis postao je viralan, a ubrzo se pokazalo da se radilo o pokušaju desnice da diskreditira i osramoti Pelosy čineći je
pijanom, zbunjenom ili čak bolesnom.

Zanima li vas kako bi izgledao video u slučaju da je misija Apolo 11 pošla po zlu i da se astronauti nisu mogli vratiti kući? Nema problema, u sklopu umjetničkog projekta
In Event of Moon Disaster koji “istražuje utjecaj i rasprostranjenost dezinformacija i deepfake tehnologija u suvremenom društvu” napravljen je sjajan
deepfake uradak. Govor za tragičnu mogućnost ishoda misije predsjednik Nixon nikad nije održao, no ‘umjetničku’ verziju možete pogledati
ovdje. U izradi videa korištene su tehnike dubokog učenja za stvaranje
sintetskog glasa Nixona kao i za uporabu tehnika zamjene dijaloga za preslikavanje pokreta Nixonovih očiju i usana.
Izvješće znanstvenika s University College London iz kolovoza tvrdi da je
deepfake najopasniji oblik kriminala koji se može ostvariti korištenjem umjetne inteligencije (
AI). Prema istraživanju provedenom lani na više od 1.000 stručnjaka za odnose s javnošću u SAD-u (
Plank Center for Leadership in PR), ‘lažne vijesti’
ozbiljnim problemom smatra gotovo 60% stručnjaka, a upotreba
deepfake tehnologije, u glasovnoj ili vizualnoj formi, među četiri je
glavna izazova s kojima će se tvrtke koje rade u PR sektoru morati suočiti u 2020.
Ova godina je, srećom, na izmaku, a čini se da ‘priča’ o
deepfakeu tek počinje…
Napisao: Lordan Prelog, administrator stranice Muzeja lažnih vijesti
foto: Pixabay