Vreme čitanja: oko 2 min.

Da li veštačka inteligencija ima rasne predrasude?

N. M.

Vreme čitanja: oko 2 min.

Zašto je Gugl pauzirao generisanje slika ljudi veštačkom inteligencijom?

  • 0
AI kolumna Goran Kunjadić Foto: Shutterstock, Privatna arhiva

Nedavno su se pojavile slike koje je kreirala veštačka inteligencija, a koje su izazvale burne reakcije širom sveta i podstakle nove rasprave o AI. Gugl je preduzeo proaktivan korak kako bi se prevazišli problemi u vezi sa svojim novim modelom veštačke inteligencije, Gemini, koji generiše slike ljudi sa netačnim etničkim prikazima.

Tehnološki gigant je privremeno zaustavio funkciju generisanja slika Gemini AI i planira uskoro da objavi poboljšanu verziju. Ovaj potez dolazi nakon što su korisnici društvenih medija podelili primere istorijskih ličnosti, uključujući Vikinge i nemačke vojnike iz Drugog svetskog rata, koje su prikazane sa različitim etničkim i polovima.

Kao odgovor na kritike, Gugl priznaje potrebu za prilagođavanjem kako bi se osigurala tačnost i pravičnost u svojoj AI tehnologiji.

U saopštenju, Gugl je izrazio svoju posvećenost rešavanju nedavnih problema sa Gemini funkcijom za generisanje slika. Iako specifične slike nisu pomenute, primeri problematičnih rezultata bili su široko dostupni, što je izazvalo rasprave o tačnosti i pristrasnosti AI. Jedan bivši zaposleni u Gugl je čak primetio da je teško naterati Gemini da prizna postojanje belaca!

Gugl Gemini tim, priznao je da su neophodna hitna poboljšanja, pošto model veštačke inteligencije nije imao uporište u istorijskim kontekstima. Gugl naglašava svoju posvećenost odražavanju svoje globalne korisničke baze kroz svoje principe veštačke inteligencije. Dok je generisanje slika ljudi privremeno pauzirano, Gugl će nastaviti da zadovoljava otvorene zahteve za slikama.

Međutim, kompanija priznaje da zahtevi za odgovor sa istorijskim nasleđem zahtevaju dalje fino podešavanje kako bi se prilagodili nijansama različitih konteksta. Pitanje pristrasnosti u veštačkoj inteligenciji bila je tema za zabrinutost, posebno u pogledu njenog uticaja na ljude sa drugačijom bojom kože.

Istraga Vašington posta otkrila je slučajeve generatora slika koji pokazuju pristrasnost prema ljudima boje kože. Na primer, generator slika je prikazivao primaoce bonova za hranu kao prvenstveno ljude tamnije puti, uprkos tome što je većina primalaca bonova za hranu u SAD belci. Slični pristrasni rezultati primećeni su kada se tražila slika osobe u socijalnim službama.

Stručnjaci sa Instituta za veštačku inteligenciju usmerenu na ljude na Univerzitetu u Sariju, priznaje da je ublažavanje pristrasnosti u dubokom učenju i generativnoj veštačkoj inteligenciji izazovan problem. Verovatno će doći do grešaka, ali tekuća istraživanja i različiti pristupi, kao što su čuvanje skupova podataka za obuku i uvođenje zaštitnih ograda za obučene modele, imaju za cilj da eliminišu pristrasnost tokom vremena.

Gugl-ova odluka da pauzira generisanje slika ljudi u svom modelu Gemini AI pokazuje njegovu posvećenost rešavanju zabrinutosti izazvanih netačnim etničkim prikazima. Priznajući potrebu za poboljšanjima i daljim podešavanjem, Gugl ima za cilj da osigura da njegova AI tehnologija odražava raznolikost njegove korisničke baze.

Iako pristrasnost u AI ostaje izazov, očekuje se da će stalni napori i istraživanja dovesti do kontinuiranih poboljšanja u eliminisanju pristrasnosti i poboljšanju tačnosti i pravednosti sadržaja generisanog veštačke inteligencije. Kako će se stvari dalje odvajati, saznaćemo u bliskoj budućnosti.

(Telegraf.rs/Goran Kunjadić)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA