Aktualno
StoryEditor

Deepfake: Oprez, od vaše sličice na webu može se napraviti i pornić!

13. Lipanj 2019.

Posljednjih godina sve smo više izloženi krivim, iskrivljenim i lažnim informacijama kojima nas hrane putem interneta. Lažne vijesti ušle su u mainstream negdje oko izbora Donalda Trumpa za predsjednika SAD-a kada se nagađalo da je upravo širenje lažnih vijesti na društvenim mrežama pripomoglo da ovaj, neki bi ga nazvali redikul, postane predsjednik najutjecajnije države na svijetu.

Duboka varka ili deepfake (kovanica engl. pojmova deep learning i fake), odnosno tehnika kojom umjetna inteligencija stvara nove ljudske slike tj. likove, otišla je korak dalje. Neke će razveseliti oživljavanjem dosad nepomičnih lica, ali i zagorčati život svima koji se ni krivi ni dužni nađu u nekom nepoćudnom filmu samo zato što su svoju fotografiju ostavili negdje na internetu

No, lažne vijesti samo su dio dezinformacija koje kruže world wide webom. Unatrag nekoliko godina pojavio se video u kojem tadašnji predsjednik SAD-a Barrack Obama govori o uspjesima svoje vlade, hvali američko zdravstvo i, reklo bi se, puše u svoja jedra. Ipak, cijeli je taj video koji traje oko pet minuta fabriciran, odnosno lažan.

Naziv takvih videouradaka u kojima imate osjećaj da gledate i slušate stvarnu osobu, a zapravo je sve napravljeno s pomoću algoritma naziva se deepfake.

Tzv. deepfake (kovanica engl. pojmova deep learning i fake), tehnika je kojom umjetna inteligencija montira nove ljudske slike i stvara nove likove, a može ih i pokrenuti zahvaljujući dubokom učenju.

Napredak tehnologije i razvoj umjetne inteligencije došao je do stadija u kojemu je moguće fabricirati osobu i ‘natjerati‘ je da kaže bilo što u bilo kojem trenutku, što svakako predstavlja opasnost ako prava osoba izgovori neke krive stvari te tako zakotrlja događaje koji nikome nisu u interesu.

Progovorili portreti

[caption id="attachment_388347" align="aligncenter" width="750"] Face swap aplikacija[/caption]

Uz umjetnu inteligenciju, strojno i duboko učenje moguće je napraviti lažni video, mijenjati glasove i lica te staviti bilo kome svoje riječi u njegova usta. Prije nekoliko godina taj je proces bio podosta zahtjevan, ali danas uz malo znanja o programiranju moguće je vrlo lako napraviti deepfake video. Najjednostavnije primjene ove tehnologije jesu aplikacije na pametnim telefonima za mijenjanje lica, tzv. swap face apps.

Koliko je tehnologija napredovala, pokazuje i podatak da su nedavno Samsungovi istraživači iz moskovskoga Samsung AI Centera, animirali ili oživili među ostalima i Mona Lisu, Salvadora Dalija i Marilyn Monroe te pokazali kako od samo jedne slike mogu stvoriti video.

Prije je trebalo jako mnogo sličica kako bi deepfake video izgledao što realnije, ali danas je i jedna slika dovoljna da oživi davno preminule osobe ili da žive osobe kažu nešto što ne bi trebale ili smjele. Malen dio ove tehnologije manipuliranja videom koristi se u Hollywoodu već godinama pa se tako davne 1994. godine Forrest Gump rukovao s američkim predsjednikom Kennedyjem i u lice mu rekao da mu se ‘piški‘.

[caption id="attachment_388348" align="aligncenter" width="750"]forrest gump Forrest kod Kennedyja[/caption]

Tada je za takvu manipulaciju trebalo dosta vremena, mnoštvo visokokvalificiranih umjetnika i mnogo novca, a to nije jedini primjer manipulacije u filmovima i serijama. Tako nešto moglo se vidjeti i u ‘Ratovima zvijezda‘, ‘Gladijatoru ‘ili ‘Brzim i žestokima‘, najčešće ako netko od glumaca ne dočeka kraj snimanja.

Prvi na udaru

Ipak, takve stvari i manipulacije na filmskom platnu nikoga previše ne uzbuđuju jer je riječ o mašti i fantaziji, ali kada su stvarne osobe dio takve manipulacije, to može biti veoma opasno.

Kako to obično biva na internetu, pojavom deepfake videa prvo su na meti bile poznate glumice, pjevačice i ostali ‘celebritiji‘ koji su se odjednom našli na raznim pornostranicama u raznim nepoćudnim pozama i radnjama (Severinin video nije deepfake, samo da se razumijemo).

Jedna od njih bila je i planetarno poznata glumica Scarlett Johansson koja je bila jedna od prvih žrtava deepfakea. To je bio početak jer, ako internet nešto zna, zna se dobro našaliti na bilo čiji račun, iako tim slavnim osobama u tim trenucima nije bilo do smijeha. I dok su ti početni deepfake videomaterijali bili dosta sirovi, nekome tko posjećuje takve stranice nije bilo pretjerano bitno što se vide neke nepravilnosti na licima glumica i pjevačica jer im to u tim trenucima i nije baš u fokusu.

Opasnost u zraku

Kako god bilo, ti neki koji su se našli u takvim filmićima imaju mnogo prostora u medijima, utjecajni su pa su se mogli za sebe izboriti da se takvi uradci maknu ili da dokažu kako to nisu oni u videu.

Ali postavlja se pitanje što bi neka obična osoba mogla napraviti da se nađe u takvoj situaciji. Malo ili gotovo ništa. Pogotovo ako znamo da je sada za izradu lažnog videa potrebna samo jedna fotografija, a gotovo svi imaju barem jednu fotografiju na internetu do koje se može doći laganim pretraživanjem.

Također, ubrzo nakon pojave tih nepristojnih filmića koji su se najprije pojavili na stranici Reddit, a koje je, budimo realni, neki štreber radio u kućnoj radinosti, postavilo se pitanje: što ako se počne manipulirati nekim važnijim ili opasnijim osobama poput Trumpa, Obame, Putina ili Kim Jong Una.

Za neke ljude nove su tehnologije sinonim za neograničene mogućnosti, za druge su noćna mora i izvor straha da će čovječanstvo nestati pod najezdom umjetne inteligencije ili robota. Za treće, pak, napredak tehnologije znači stavljanje lica Nicolasa Cagea u sve filmove kojih su se mogli sjetiti. Pojavom deepfake videa proslavio se i glumac Nicolas Cage koji je ni kriv ni dužan, zahvaljujući internetskoj zajednici, ‘glumio‘ u mnogim blockbuster filmovima. Tako se na YouTubeu, ali i drugim platformama mogu naći filmići u kojima Cage igra glavnu ulogu u ‘Indiani Jonesu‘, ‘Jamesu Bondu‘, ‘Supermanu‘, ‘Lawrencu od Arabije‘, ‘Kumu‘… lista ne prestaje. Zašto je baš Cage izabran, nije poznato, ali deepfake videotehnologija na trenutak je oživila karijeru Nicolasa Cagea pa se ne čudite ako u tražilicu upišete deep fake, a dobijete Cagea.

Vrlo lako se cijeli planet može naći u opasnosti ako netko od nabrojenih izrekne, ne svojom voljom, recimo, naredbu za nuklearni napad te izazove paniku među pučanstvom.

https://youtu.be/BU9YAHigNx8

Protuotrov u razvoju

Mogućnosti za dovođenje nekoga u nevolju postale su neograničene, a dokle je došao deepfake, najbolje govori činjenica da su neki, rekli bismo malo više paranoični ljudi, počeli sumnjati u događaje koji su se sigurno dogodili.

Pa se tako u bespućima interneta mogu pronaći i oni koji smatraju da je spuštanje na Mjesec deepfake ili pak teroristički napad na Blizance 11. rujna. Znajući ovo, dolazimo do problema jer, ako deepfake video može nagnati ljude da prestanu vjerovati u stvarne videosadržaje, problem dezinformiranja i raznih teorija urote postaje još veći.

Cijeli članak pročitajte u našem tiskanom izdanju a možete i u digitalnom

21. studeni 2024 14:22