Poštovani čitaoci,
Molimo vas da se pridržavate sledećih pravila za pisanje komentara:
- Neophodno je navesti ime i e-mail adresu u poljima označenim zvezdicom, s tim da je zabranjeno ostavljanje lažnih podataka.
- Komentari koji sadrže psovke, uvrede, pretnje i govor mržnje na nacionalnoj, verskoj, rasnoj osnovi ili povodom nečije seksualne opredeljenosti neće biti objavljeni.
- Prilikom pisanja komentara vodite računa o pravopisnim i gramatičkim pravilima.
- Tekst komentara ograničen je na 1500 karaktera.
- Nije dozvoljeno postavljanje linkova odnosno promovisanje drugih sajtova kroz komentare, te će takve poruke biti označene kao spam, poput niza komentara istovetne sadržine.
- Komentari u kojima nam skrećete pažnju na propuste u tekstovima neće biti objavljeni, ali će biti prosleđeni urednicima, kao i oni u kojima nam ukazujete na neku pojavu u društvu, ali koji zahtevaju proveru.
- NAPOMENA: Komentari koji budu objavljeni predstavljaju privatno mišljenje autora komentara, to jest nisu stavovi redakcije Telegrafa.
<% message.text %>
Nepoznat
Zašto je ChatGPT opasan za ozbiljne stvari: Halucinira činjenice i izmišlja podatke: Kao što sam doživeo sa porodičnim vezama ( moja rodica Teodora je '95 da ima ćerku '02, njena rođaka je '76 umesto mog prvog rođaka Gorana koji je '76), ChatGPT nije pouzdan izvor informacija. On popunjava praznine nagađanjima i izmišljotinama koje mogu zvučati uverljivo, ali su potpuno lažne. Daje opasne i neodgovorne savete: Njegovi "saveti" o sajber bezbednosti ("zeleno svetlo" za sumnjive sajtove i programe) ili tehničkoj podršci (reinstalacija Windowsa bez dijagnoze) mogu dovesti do ozbiljnih posledica poput gubitka podataka, krađe identiteta ili kompromitovanja računara. On ne razume stvarne rizike svojih preporuka. Nema logiku i zdrav razum: Nedostaje mu sposobnost osnovnog logičkog zaključivanja i razumevanja realnosti (npr. biološka nemogućnost majke od 7 godina da ima dete). Postavlja "uslove za normalnu komunikaciju" koju on nikad nije vodio: On priča o "komunikaciji uz poštovanje" dok je tokom celog razgovora bio u "svom svetu" nelogičnosti i halucinacija On uopšte ne razume suštinske razlike u industriji (kao što j bila VIP produkcija naspram puke "etikete")pecifičnih grešaka (npr. ZAM etiketa, VIP etiketa, "VIP nije bila uopšte etiketa, Tvrdoglavo ponavljanje grešaka: Uporno se drži netačnih termina, bez obzira na tvoje precizne korekcije.
Saša
Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima
Dragoslav
Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..