ChatGPT sve više laže, a niko nema objašnjenje zašto

 

Poštovani čitaoci,
Molimo vas da se pridržavate sledećih pravila za pisanje komentara:

  • Neophodno je navesti ime i e-mail adresu u poljima označenim zvezdicom, s tim da je zabranjeno ostavljanje lažnih podataka.
  • Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni.
  • Prilikom pisanja komentara vodite računa o pravopisnim i gramatičkim pravilima.
  • Tekst komentara ograničen je na 1500 karaktera.
  • Nije dozvoljeno postavljanje linkova odnosno promovisanje drugih sajtova kroz komentare, te će takve poruke biti označene kao spam, poput niza komentara istovetne sadržine.
  • Komentari u kojima nam skrećete pažnju na propuste u tekstovima neće biti objavljeni, ali će biti prosleđeni urednicima, kao i oni u kojima nam ukazujete na neku pojavu u društvu, ali koji zahtevaju proveru.
  • NAPOMENA: Komentari koji budu objavljeni predstavljaju privatno mišljenje autora komentara, to jest nisu stavovi redakcije Telegrafa.
Ime je obavezno
E-mail adresa je obavezna
E-mail adresa nije ispravna
*otkucano <%commentCount%> od ukupno <% maxCommentCount %> karaktera
Komentar je obavezan

<% message.text %>

Komentari

  • Saša

    09. maj 2025 | 06:55

    Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima

  • Dragoslav

    08. maj 2025 | 14:42

    Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA