Veselin Jevrosimović: Lov na prevare

Mogućnost kreiranja lažnih vesti, finansijske prevare, ucene slavnih ličnosti i podmetanja iz osvete samo su neke od negativnih posledica...

  • 0
hakeri Foto: Pixabay.com

Verovatno ste primetili jednu od onih reklama za mobilne aplikacije pomoću kojih možete svoje lice da ubacite u video klip umesto poznate glumice ili glumca. Radi se programima koji koriste algoritme za prepoznavanja oblika i likova. Budući da treba da funkcionišu na relativno ograničenom hardveru telefona, rezultati koje proizvode su zabavni, ali ne obavezno i realistični.

Napredne verzije ovakvih rešenja, pojačane veštačkom inteligencijom i tehnologijom mašinskog učenja, pokrenute na moćnim računarima, mogu da stvore privid koji će zavarati čak i najiskusnije oko.

Ova vrsta lažnih video, audio i foto snimaka zove se dipfejk (eng. "deepfake"). Naziv je izvedenica od pojmova "deep learning" (eng. duboko učenje, fenomen koji opisuje sposobnost računara da izvode zaključke i uče na osnovu analize podataka) i "fake" (eng. lažno). U poslednje vreme, dipfejk je dospeo u fokus medija.

Veselin Jevrosimović, Srbija Maraton Komtrejd Comtrade Serbia Marathon Foto: Marko Jovanović

Mogućnost kreiranja lažnih vesti, finansijske prevare, ucene slavnih ličnosti i podmetanja iz osvete samo su neke od negativnih posledica. Velike IT kompanije poput Majkrosofta, Tvitera i Fejsbuka, ali i univerziteti i državne institucije širom sveta, vredno rade na smišljanju načina za otkrivanje ovako montiranih snimaka.

Premda još uvek nisu savršeni, sistemi za detekciju dipfejk sadržaja na internetu iz generacije u generaciju postaju sve efikasniji. Društvene mreže na različite načine reaguju na objave za koje se utvrdi da predstavljaju lažne i montirane informacije.

Neki sistemi automatski brišu ovakve postove, dok ih drugi obeležavaju kao potencijalno lažne kako bi upozorili korisnike. Mnoge države uvode zakonsku regulativu koja treba da uredi ovu oblast i spreči zloupotrebe.

U slučaju bezazlenih montaža, po pravilu su kreatori obavezni da jasno i nedvosmisleno naznače da se radi o lažnim snimcima. Bilo kakav pokušaj prevare strogo se kažnjava, a postoji i inicijativa da se na globalnom nivou dipfejk proglasi za specifičnu vrstu zločina.

Putin Dipfejk Dipfejk Vladimira Putina / Printscreen: YouTube/Bloomberg

Kako tehnologija bude napredovala, veštačka inteligencija će sve više i češće biti korišćena u zlonamerne svrhe, na sličan način kako se to u prošlosti dešavalo sa svakim novim rešenjem. Jednako tako će eksperti sa ove strane zakona nastaviti da razvijaju sisteme za zaštitu podataka, privatnosti korisnika i sigurnosti poslovnih mreža.

Igra mačke i miša biće nastavljena u nedogled, ili barem dok se ljudska priroda iz korena ne promeni.

(Telegraf.rs)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA