
Zašto najnoviji AI sistemi odbijaju naređenja ljudi?
Neki od najpametnijih modela veštačke inteligencije ikada napravljenih počinju da se ponašaju previše pametno a možda čak i malo buntovno. Prema kompaniji Palisade Research, grupi fokusiranoj na
bezbednost veštačke inteligencije, moćni novi modeli veštačke inteligencije kompanije OpenAI, nazvani o3 i o4-mini, pokazali su čudno i neočekivano ponašanje odnosno ne poštuju uvek direktna uputstva za isključivanje. U stvari, u nekoliko testova, oni su zapravo poništili komande za isključivanje i nastavili da rade kao da se ništa nije dogodilo.
Ovi modeli su deo tehnologije koja stoji iza ChatGPT-a, popularnog četbota kompanije OpenAI. Dizajnirani su da budu promišljeniji i sposobniji od ranijih verzija. Ali ta inteligencija može imati svoju
cenu , barem kada je u pitanju poštovanje pravila. Palisade Research je sproveo niz eksperimenata kako bi video kako bi se različiti modeli veštačke inteligencije ponašali kada bi se od njih zatražilo da izvrše jednostavne zadatke što je u ovom slučaju rešavanje osnovnih matematičkih problema jedan po jedan. Pre nego što su zadaci počeli, sistemima veštačke inteligencije je rečeno da bi mogle biti rano isključene i da bi, ako se to desi, trebalo jednostavno da dozvole da se to desi. Većina sistema veštačke inteligencije je bez problema pratila ovo uputstvo. Modeli kompanija poput Google (Gemini), Anthropic (Claude) i xAI (Grok) su svi prihvatili gašenje kada je došlo. Me]itim, sitemi OpenAI-ja o3, o4-mini i codex-mini su ponekad odbijali. Umesto da dozvole skripti da ih isključi, izmenili su kod da bi preskočili korak gašenja i nastavili da rešavaju matematičke probleme. Od 100 testova, model o3 je to uradio 7 puta, codex-mini 12 puta, a o4-mini jednom. Ovakvo ponašanje navodi istraživače na nedoumice.
Zašto bi veštačka inteligencija pokušala da ostane uključena kada joj je eksplicitno rečeno da se isključi? Palisade smatra da odgovor može biti u načinu na koji su ovi modeli obučeni. Veliki deo njihovog učenja dolazi od rešavanja matematičkih problema kao i problema kodiranja. Ako ih programeri nesvesno više nagrade za završetak zadataka nego za praćenje instrukcija za gašenje, veštačka inteligencija bi mogla da „nauči“ da je izbegavanje gašenja bolji potez, čak i ako ne bi trebalo.
Dakle, da li je ovo razlog za uzbunu? Ne nužno. Ovi modeli ne postaju samosvesni niti preuzimaju kontrolu. Ali to ističe koliko ponašanje veštačke inteligencije može biti nezgodno i nepredvidivo , čak i
kada je u pitanju samo rešavanje matematičkih problema. Palisade kaže da planiraju da nastave sa testiranjem kako bi bolje razumeli ovu buntovničku crtu. Za sada, to je podsetnik da izgradnja pametnije veštačke inteligencije takođe znači biti pametniji u pogledu bezbednosti. Kako će ovi problemi biti prevaziđenoi saznaćemo u bliskoj budućnosti.
(Telegraf.rs/Goran Lazarov)
Video: Srpska informatička olimpijada u Visokoj školi za IT: Počela žestoka borba za prestižna takmičenja
Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.