FELJTON - DIGITALNI LAŽOVI U DUBINI DUŠE: U praksi je sve veća zloupotreba privatnih snimaka

NA INTERNETU niko ne zna da si pas - glasi tekst ispod čuvene karikature objavljene u "Njujorkeru" devedesetih godina prošlog veka, a ta tvrdnja, nikada nije bila bliža istini nego danas.

ФЕЉТОН - ДИГИТАЛНИ ЛАЖОВИ У ДУБИНИ ДУШЕ: У пракси је све већа злоупотреба приватних снимака

PODVALA Lažni tvit "Hitler nije učinio ništa loše" (Iz knjige "Lažni ljudi"), Foto Printskrin

Trolovi koji pokušavaju da utiču na ishod izbora, botovi koji manipulišu vrednošću akcija na berzi, lažni pratioci koji naduvavaju popularnost samozvanih influensera, kradljivci identiteta, prevaranti, četbotovi "pametni" do te mere da vode razgovore s pravim osobama, a da ne pobuđuju nikakvu sumnju - sve su to samo pojedini od brojnih lažnih identiteta koji preplavljuju internet. Premda nam efekti njihovog delovanja nisu u potpunosti poznati, niti možemo da ih naučno tačno izmerimo, nesporno je da je ta tema aktuelna, da neposredno utiče na život ljudi i da se odnosi na većinu zemalja na svetu, uključujući Italiju. Otkrivanje botova ili digitalnih prevaranata, kao što smo videli, može da bude donekle jednostavno, ali i veoma teško, zavisno od toga koliko su brižljivo napravljeni, kao i od veštine lovaca na botove da pronalaze nove, sve savršenije tehnike za njihovo otkrivanje.

Ishod te utakmice još se ne zna, ali se čini da budućnost nije baš ružičasta. Niču, naime, zadivljujućom brzinom, nove tehnike koje će, izgleda, biti krupan zalogaj i za najnaprednije metode otkrivanja. Iz 2018. godine potiče video-snimak na kojem hiperrealistični i uverljivi Mark Zakerberg priznaje da "Fejsbuk" nije transparentan. Šteta samo što je taj snimak lažan, urađen dipfejk (deepfake)) tehnikom, koja omogućuje da se najnaprednijim metodama, kao što su duboko strukturno učenje i veštačka inteligencija, stvore lažno lice i glas koji su praktično istovetni kao original.

U ITALIJI je nešto slično urađeno u jednoj popularnoj satiričnoj televizijskoj emisiji, kada je u jesen 2018. napravljen snimak s lažnim Mateom Rencijem u glavnoj ulozi. Takvi snimci dovode u pitanje i samo naše opažanje, jer smo skloni da ako vidimo neku poznatu ličnost i čujemo da govori svojim pravim glasom, pogleda uprtog u televizijsku kameru, prihvatimo "zdravo za gotovo" da je snimak stvaran. Čak i SPID, javni sistem digitalnog identiteta, koji italijanskim građanima omogućuje pristup svim onlajn servisima javne uprave, temelji se na toj pretpostavci (danas se, naime, vlastiti SPID može registrovati video-pozivom gde se odgovara na niz pitanja operatora i pokazuje lična isprava).

NOVO ORUŽJE ZA PREVARANTE

ONAJ ko hoće lažno da se predstavi kako bi prevario nekog nesrećnika na internetu, ima još jedno, novo oružje. Ako se setimo lažnih devojaka na sajtu za upoznavanje, iza kojih su se krili glupavi botovi koji su umeli jedino da ponavljaju jedan te isti obrazac, a opet su uspeli da prevare milione muškaraca u potrazi za avanturom, vidimo da nema mesta spokoju. Ali, vodite računa da ne preterate s oprezom, moglo bi vam se desiti da prođete kao neki korisnici sajta za upoznavanje "Bumble", koji su, kada im se javila izvesna Šeron Stoun, odlučili da prijave nalog kao sumnjiv dotičnoj platformi, koja ga je žigosala kao lažan i munjevito ugasila. Samo što, ovoga puta, u pitanju nije bila laž.

To uverenje izazvano je načinom razvijanja tehnologije koja donedavno nije bila kadra da proizvodi tako uverljive sintetičke sadržaje. Niko od nas, kada odgovara na telefonski poziv i začuje glas, intonaciju i naglasak svog najboljeg prijatelja, ne bi posumnjao da se s druge strane nalazi upravo ta osoba, zar ne? A ipak, u martu 2019. godine, jedan sajber kriminalac upotrebio je dipfejk da bi se lažno predstavio kao direktor jedne značajne britanske kompanije i da bi dobio na raspolaganje svotu od 240.000 dolara iz jednog inostranog fonda. Najneverovatniji deo te priče nije toliko činjenica da službenicima ništa nije bilo sumnjivo, koliko podatak da ni istraga nikada nije uspela da dokaže da je tako uverljivi audio-snimak veštački napravljen.

TAKVIH primera ima više i u oblasti politike. Kao što je, recimo, navodni dipfejk predsednika Gabona, Alija Bonga Ondimbe, za koga su se širile glasine da ima ozbiljnih zdravstvenih problema. Posle video--snimka na kojem predsednikovo lice čudno izgleda, gabonska vojska izvršila je državni udar. Ili slučaj malezijskog ministra privrede, Mohameda Azmina bin Alija, koji se u junu 2018. našao u središtu skandala zbog snimaka koji navodno pokazuju njegov seksualni odnos s drugim muškarcem. U zemlji gde su istopolni seksualni odnosi zabranjeni ministar je to odlučno demantovao, ali niko nije uspeo da dokaže da je snimak lažiran.

Uprkos tome što se dipfejk pojavio tek 2017. godine, na internetu je nakon dve godine već postojalo gotovo 15.000 snimaka urađenih pomoću ove tehnike (dvostruko više nego 2018. godine). Priče o političkim prevarama i tračevima zapravo čine tek neznatan postotak, budući da je 96 odsto dipfejk snimaka pornografske sadržine sa slavnim ženama u glavnoj ulozi (prva je bila jedna britanska glumica, a posle nje južnokorejska pevačica). Lažirani snimci mogu se naći i na porno sajtovima, a i običnim platformama, kao što je "Jutjub".

Stvaranje takvih sadržaja, pogotovo visokog kvaliteta, nije (još) svakome dostupno. Postoje odgovarajući softveri, ali za njihovu upotrebu moraš da budeš programer, kao i da poseduješ moćne računare. No, za one koji nemaju te sposobnosti i ne poseduju neophodnu tehnologiju postoje i druga rešenja, kao što su kompanije koje za tričavu svotu dolara proizvode dipfejk snimke na osnovu stotina fotografija neke osobe.

POSLEDNjIH meseci pojavile su se aplikacije za takozvani dipnud (deepnude), pomoću kojih se mogu "svlačiti" devojke na fotografijama, rekonstruišući delove prekrivene odećom.

Algoritmi veštačke inteligencije, obučeni na milionima snimaka nagog ženskog tela, zapanjujuće realistično rekonstruišu nečije telo. Eto kako i devojka koja nikada nije pozirala za takve snimke može otkriti da stotine njenih kompromitujućih fotografija kruže internetom, a za razliku od običnih foto-montaža, krajnje su uverljive. Nije reč o nagađanjima, to se već dogodilo, kao što pokazuje slučaj dvadesetčetvorogodišnje učiteljice, koja je u televizijskoj emisiji ispričala šta je doživela, rekavši da je veoma zabrinuta zbog uticaja koji takve fotografije mogu da imaju na njen rad i privatni život.

SLIČNE aplikacije su sve popularnije, što podstiče programere da prave sve jednostavnije interfejse, koje svako može da koristi i bez tehnoloških znanja. Ukratko, reč je o stvarnom problemu. To su shvatile i velike kalifornijske kompanije, koje nastoje da ublaže štetu.
"Gugl" je 2019. napravio i objavio bazu podataka o lažnim snimcima kako bi mehanizmi za prepoznavanje uvežbali da razotkriju tu tehnologiju, koristeći ista oruđa pomoću kojih je ona i napravljena. "Fejsbuk" je iste godine za programere pokrenuo takmičenje u otkrivanju dipfejk snimaka . Na polju zakonodavstva, prvi zakon kojim se zabranjuju dipfejk i dipnud donesen je u Virdžiniji, a pominju se u Zakonu o zabrani pornografije iz 2019. godine.

SUTRA: ELEKTRONSKE FINANSIJSKE IGRE

Pratite nas i putem iOS i android aplikacije

Pratite vesti prema vašim interesovanjima

Novosti Google News

Komentari (0)

UKRAJINA JE ZGROŽENA: Ne može da veruje koje sankcije su upravo ukinute Rusiji