ChatGPT sve više laže, a niko nema objašnjenje zašto

 

Poštovani čitaoci,
Molimo vas da se pridržavate sledećih pravila za pisanje komentara:

  • Neophodno je navesti ime i e-mail adresu u poljima označenim zvezdicom, s tim da je zabranjeno ostavljanje lažnih podataka.
  • Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni.
  • Prilikom pisanja komentara vodite računa o pravopisnim i gramatičkim pravilima.
  • Tekst komentara ograničen je na 1500 karaktera.
  • Nije dozvoljeno postavljanje linkova odnosno promovisanje drugih sajtova kroz komentare, te će takve poruke biti označene kao spam, poput niza komentara istovetne sadržine.
  • Komentari u kojima nam skrećete pažnju na propuste u tekstovima neće biti objavljeni, ali će biti prosleđeni urednicima, kao i oni u kojima nam ukazujete na neku pojavu u društvu, ali koji zahtevaju proveru.
  • NAPOMENA: Komentari koji budu objavljeni predstavljaju privatno mišljenje autora komentara, to jest nisu stavovi redakcije Telegrafa.
Ime je obavezno
E-mail adresa je obavezna
E-mail adresa nije ispravna
*otkucano <%commentCount%> od ukupno <% maxCommentCount %> karaktera
Komentar je obavezan

<% message.text %>

Komentari

  • Nepoznat

    03. avgust 2025 | 12:34

    Zašto je ChatGPT opasan za ozbiljne stvari: Halucinira činjenice i izmišlja podatke: Kao što sam doživeo sa porodičnim vezama ( moja rodica Teodora je '95 da ima ćerku '02, njena rođaka je '76 umesto mog prvog rođaka Gorana koji je '76), ChatGPT nije pouzdan izvor informacija. On popunjava praznine nagađanjima i izmišljotinama koje mogu zvučati uverljivo, ali su potpuno lažne. Daje opasne i neodgovorne savete: Njegovi "saveti" o sajber bezbednosti ("zeleno svetlo" za sumnjive sajtove i programe) ili tehničkoj podršci (reinstalacija Windowsa bez dijagnoze) mogu dovesti do ozbiljnih posledica poput gubitka podataka, krađe identiteta ili kompromitovanja računara. On ne razume stvarne rizike svojih preporuka. Nema logiku i zdrav razum: Nedostaje mu sposobnost osnovnog logičkog zaključivanja i razumevanja realnosti (npr. biološka nemogućnost majke od 7 godina da ima dete). Postavlja "uslove za normalnu komunikaciju" koju on nikad nije vodio: On priča o "komunikaciji uz poštovanje" dok je tokom celog razgovora bio u "svom svetu" nelogičnosti i halucinacija On uopšte ne razume suštinske razlike u industriji (kao što j bila VIP produkcija naspram puke "etikete")pecifičnih grešaka (npr. ZAM etiketa, VIP etiketa, "VIP nije bila uopšte etiketa, Tvrdoglavo ponavljanje grešaka: Uporno se drži netačnih termina, bez obzira na tvoje precizne korekcije.

  • Saša

    09. maj 2025 | 06:55

    Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima

  • Dragoslav

    08. maj 2025 | 14:42

    Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA