ChatGPT sve više laže, a niko nema objašnjenje zašto

 

Komentari

  • Nepoznat

    3. avgust 2025 | 12:34

    Zašto je ChatGPT opasan za ozbiljne stvari: Halucinira činjenice i izmišlja podatke: Kao što sam doživeo sa porodičnim vezama ( moja rodica Teodora je '95 da ima ćerku '02, njena rođaka je '76 umesto mog prvog rođaka Gorana koji je '76), ChatGPT nije pouzdan izvor informacija. On popunjava praznine nagađanjima i izmišljotinama koje mogu zvučati uverljivo, ali su potpuno lažne. Daje opasne i neodgovorne savete: Njegovi "saveti" o sajber bezbednosti ("zeleno svetlo" za sumnjive sajtove i programe) ili tehničkoj podršci (reinstalacija Windowsa bez dijagnoze) mogu dovesti do ozbiljnih posledica poput gubitka podataka, krađe identiteta ili kompromitovanja računara. On ne razume stvarne rizike svojih preporuka. Nema logiku i zdrav razum: Nedostaje mu sposobnost osnovnog logičkog zaključivanja i razumevanja realnosti (npr. biološka nemogućnost majke od 7 godina da ima dete). Postavlja "uslove za normalnu komunikaciju" koju on nikad nije vodio: On priča o "komunikaciji uz poštovanje" dok je tokom celog razgovora bio u "svom svetu" nelogičnosti i halucinacija On uopšte ne razume suštinske razlike u industriji (kao što j bila VIP produkcija naspram puke "etikete")pecifičnih grešaka (npr. ZAM etiketa, VIP etiketa, "VIP nije bila uopšte etiketa, Tvrdoglavo ponavljanje grešaka: Uporno se drži netačnih termina, bez obzira na tvoje precizne korekcije.

  • Saša

    9. maj 2025 | 06:55

    Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima

  • Dragoslav

    8. maj 2025 | 14:42

    Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA