Poštovani čitaoci,
Molimo vas da se pridržavate sledećih pravila za pisanje komentara:
- Neophodno je navesti ime i e-mail adresu u poljima označenim zvezdicom, s tim da je zabranjeno ostavljanje lažnih podataka.
- Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni.
- Prilikom pisanja komentara vodite računa o pravopisnim i gramatičkim pravilima.
- Tekst komentara ograničen je na 1500 karaktera.
- Nije dozvoljeno postavljanje linkova odnosno promovisanje drugih sajtova kroz komentare, te će takve poruke biti označene kao spam, poput niza komentara istovetne sadržine.
- Komentari u kojima nam skrećete pažnju na propuste u tekstovima neće biti objavljeni, ali će biti prosleđeni urednicima, kao i oni u kojima nam ukazujete na neku pojavu u društvu, ali koji zahtevaju proveru.
- NAPOMENA: Komentari koji budu objavljeni predstavljaju privatno mišljenje autora komentara, to jest nisu stavovi redakcije Telegrafa.
<% message.text %>
Saša
Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima
Dragoslav
Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..