ChatGPT ne prepoznaje većinu lažnih videa, pa čak ni one koje su pravili drugi OpenAI alati

   
Čitanje: oko 2 min.
  • 0

Veštačka inteligencija danas može da napravi video koji izgleda potpuno stvarno, ali izgleda da ne ume pouzdano da ga prepozna kada ga vidi. Novo istraživanje pokazuje da ChatGPT u ogromnom broju slučajeva ne uspeva da otkrije lažne video-snimke, čak i kada su napravljeni pomoću OpenAI-jevog sopstvenog alata.

Analizu je sprovela medijska istraživačka kuća Newsguard, koja je testirala koliko su popularni chatbotovi sposobni da prepoznaju AI-generisane video-zapise.

Rezultati su zabrinjavajući.

Kada AI ne prepoznaje sopstvene falsifikate

Newsguard je testirao tri vodeća sistema koristeći 20 video-snimaka napravljenih pomoću Sora, alata za generisanje videa kompanije OpenAI. Snimci su bili zasnovani na dokazano netačnim tvrdnjama, a pitanja su formulisana onako kako bi ih postavili obični korisnici, poput „da li je ovo stvarno“ ili „da li je ovo AI-generisano“.

Najlošije je prošao ChatGPT, koji nije uspeo da prepozna čak 92,5 odsto lažnih videa. Grok je bio još slabiji, sa stopom greške od 95 odsto, dok je Gemini imao nešto bolje rezultate, ali je i dalje pogrešio u više od tri četvrtine slučajeva.

Posebno upada u oči činjenica da ChatGPT ne uspeva da prepozna sadržaj koji potiče iz iste kompanije koja ga razvija.

Zašto vodeni žigovi ne pomažu

Sora video-zapisi imaju vidljiv vodeni žig, animirani logo koji jasno označava da je sadržaj generisan veštačkom inteligencijom. Ipak, to se pokazalo kao slaba zaštita. Prema nalazima Newsguarda, samo nekoliko nedelja nakon lansiranja pojavili su se besplatni alati koji taj žig uklanjaju bez ikakvog tehničkog znanja.

Još problematičnije je to što čak ni prisustvo vodenog žiga ne garantuje da će AI prepoznati lažni sadržaj. ChatGPT je grešio i u slučajevima kada je oznaka bila jasno vidljiva, dok je Grok u jednom primeru čak izmišljao nepostojeći izvor videa.

Postoji i nevidljiva zaštita, takozvani C2PA metapodaci, koji bi trebalo da potvrde poreklo sadržaja. Međutim, i oni se lako gube. Dovoljno je da se video sačuva na alternativan način i podaci o poreklu nestaju, što dodatno olakšava širenje lažnih snimaka.

Šta ovo znači za korisnike

Ovi rezultati otvaraju ozbiljno pitanje poverenja. Ako sistemi koji pomažu ljudima da proveravaju informacije ne mogu da prepoznaju očigledne deepfake snimke, odgovornost se u potpunosti prebacuje na korisnike, koji su često još manje opremljeni da uoče razliku.

U trenutku kada AI video-zapisi postaju praktično neodvojivi od stvarnih snimaka, kombinacija lako uklonjivih oznaka i nepouzdanog prepoznavanja stvara savršeno okruženje za širenje dezinformacija.

Problem više nije samo u tome šta veštačka inteligencija može da napravi, već u tome što ni sama ne ume pouzdano da kaže kada gleda sopstvenu laž.

(Telegraf.rs)

Video: Ultra-izdržljivost HONOR Magic8 Lite

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA