Deepfake monstrum bez milosti uništava živote žena

Foto: University at Buffalo. / Ferrari / Profimedia

Zamislite sledeću situaciju - ustali ste ujutru i inboks vam je pretrpan porukama. Već posle prve dve otvorene nije vam dobro - u obe se nalazi link sa porno videom čiji ste glavni akter. To niste vi, ali snimak je toliko realan da počinjete da se tresete. O čemu se radi? O Deepfake tehnologiji.

Računari su postajali sve bolji u simulaciji stvarnosti. Savremena kinematografija se, na primer, u velikoj meri oslanja na kompjuterski generisane setove, scenografiju i likove umesto realnih lokacija i rekvizita koji su nekada bili uobičajeni, a većinu vremena ove scene se u velikoj meri ne razlikuju od stvarnosti.

Šta je deepfake

Deepfake je tehnologija zasnovana na veštačkoj inteligenciji i uglavnom se koristi kako bi se kreirali događaji koji se nisu desili, piše stranica Kritički.

 

Deepfake koristi dva modela mašinskog učenja. Prvi model skenira snimke i slike, a onda iz njih stvara novi sadržaj. Drugi model pokušava da otkrije koliko je video verodostojan.

Kada drugi model više ne pronalazi „greške“ tada se smatra da je deepfake spreman.

Sve je počelo na Reditu kada je jedan korisnik počeo da postavlja video klipove gde je ubacivao lica holivudskih glumica kreirajući na taj način izuzetno uverljive porno filmove. On je ujedno sa  svakim videom sve više usavršavao sistem.

Žene – deepfake žrtve

Deepfake može pronaći i svoju pozitivnu primenu, kao na primer u medicini, umetnisti, forenzici, filmskoj industriji itd. Međutim, istina je da se  oko 96 odsto deepfake sadržaja koristi u pornografske svrhe (bez pristanka onog čije se lice koristi). U 90 odsto slučajeva – žrtve su žene.

 

Napravljeni su lažni video zapisi o političarima koji podržavaju stavove suprotne njihovim ličnim, javne ličnosti koje priznaju zlodela i ono što je u svetu deepfake-a dominantno – žene u različitim seksualnim videima. U većini slučajeva, ovi video zapisi su izričito stvoreni kao oruđe za zloupotrebu.

Bilo koja slika koju ste postavili na društvene mreže, može postati materijal za deepfake video.

Sve više sadržaja

Broj deepfake videa se drastično povećao u poslednjih par godina. Danas postoje čak i forumi gde korisnici plaćaju za deepfake videe poznatih ličnosti ili žena koje privatno poznaju.

Rana Aiub, novinarka u Indiji koja se izjasnila protiv vladinog odgovora na silovanje osmogodišnje devojčice, bila je žrtva deepfake-a.

 

Isto važi i za Noel Martin, mladu ženu iz Australije koja je javno postavljala pitanja o seksualnom zlostavljanju.

Pored njih, nedavno je i britanska pesnikinja i radijska voditeljka, Helen Mort, na internetu pronašla svoje deepfake videe. Ovi klipovi se između ostalog koriste i kao oblik zastrašivanja – kako bi se žene ućutkale i obeshrabrile.

„Ovo je zločin koji u najvećem broju slučajeva ostaje nevidljiv“, rekla je Helen. „Moje slike su bile prisutne godinama u toj formi, na internetu, a ja nisam znala za njih. Zbog nekih od njih još uvek imam noćne more. Ovo je neverovatno ozbiljan oblik zlostavljanja“, zaključila je pesnikinja.

Originalne slike preuzete su sa njenih društvenih medija i uključivale su slike sa odmora i fotografije dok je bila trudna.

Helen je pokrenula i peticiju u borbi protiv deepfake videa, objašnjavajući svoju situaciju i to kako se žena, žrtva ovog vida sajber nasilja, oseća.

Deepfake u budućnosti

Velika većina država nema zakon na ovom polju. Osoba koja napravi pornografski sadržaj, koristeći lice devojke koja to nije odobrila, može biti osuđena za uznemiravanje (što je uglavnom nekoliko nedelja zatvora i novčana kazna).

***

Bonus video: Šerijatsko pravo – Avganistan u strahu od surovih kazni

 

***
Pratite nas i na društvenim mrežama:

Facebook

TikTok

Pinterest

Instagram