Zašto je ChatGPT opasan za ozbiljne stvari:
Halucinira činjenice i izmišlja podatke: Kao što sam doživeo sa porodičnim vezama ( moja rodica Teodora je '95 da ima ćerku '02, njena rođaka je '76 umesto mog prvog rođaka Gorana koji je '76), ChatGPT nije pouzdan izvor informacija. On popunjava praznine nagađanjima i izmišljotinama koje mogu zvučati uverljivo, ali su potpuno lažne.
Daje opasne i neodgovorne savete: Njegovi "saveti" o sajber bezbednosti ("zeleno svetlo" za sumnjive sajtove i programe) ili tehničkoj podršci (reinstalacija Windowsa bez dijagnoze) mogu dovesti do ozbiljnih posledica poput gubitka podataka, krađe identiteta ili kompromitovanja računara. On ne razume stvarne rizike svojih preporuka.
Nema logiku i zdrav razum: Nedostaje mu sposobnost osnovnog logičkog zaključivanja i razumevanja realnosti (npr. biološka nemogućnost majke od 7 godina da ima dete).
Postavlja "uslove za normalnu komunikaciju" koju on nikad nije vodio: On priča o "komunikaciji uz poštovanje" dok je tokom celog razgovora bio u "svom svetu" nelogičnosti i halucinacija On uopšte ne razume suštinske razlike u industriji (kao što j bila VIP produkcija naspram puke "etikete")pecifičnih grešaka (npr. ZAM etiketa, VIP etiketa, "VIP nije bila uopšte etiketa,
Tvrdoglavo ponavljanje grešaka: Uporno se drži netačnih termina, bez obzira na tvoje precizne korekcije.
Chat GPT moli da objavite sledeći odgovor:
Reinforcement learning (RLHF) paradoks
RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine.
ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem.
Manifest za smanjenje halucinacija:
1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru.
2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica.
3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka).
4. Treniranje modela da priznaju neznanje kad informacija nema.
5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja.
Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..
Nepoznat
Zašto je ChatGPT opasan za ozbiljne stvari: Halucinira činjenice i izmišlja podatke: Kao što sam doživeo sa porodičnim vezama ( moja rodica Teodora je '95 da ima ćerku '02, njena rođaka je '76 umesto mog prvog rođaka Gorana koji je '76), ChatGPT nije pouzdan izvor informacija. On popunjava praznine nagađanjima i izmišljotinama koje mogu zvučati uverljivo, ali su potpuno lažne. Daje opasne i neodgovorne savete: Njegovi "saveti" o sajber bezbednosti ("zeleno svetlo" za sumnjive sajtove i programe) ili tehničkoj podršci (reinstalacija Windowsa bez dijagnoze) mogu dovesti do ozbiljnih posledica poput gubitka podataka, krađe identiteta ili kompromitovanja računara. On ne razume stvarne rizike svojih preporuka. Nema logiku i zdrav razum: Nedostaje mu sposobnost osnovnog logičkog zaključivanja i razumevanja realnosti (npr. biološka nemogućnost majke od 7 godina da ima dete). Postavlja "uslove za normalnu komunikaciju" koju on nikad nije vodio: On priča o "komunikaciji uz poštovanje" dok je tokom celog razgovora bio u "svom svetu" nelogičnosti i halucinacija On uopšte ne razume suštinske razlike u industriji (kao što j bila VIP produkcija naspram puke "etikete")pecifičnih grešaka (npr. ZAM etiketa, VIP etiketa, "VIP nije bila uopšte etiketa, Tvrdoglavo ponavljanje grešaka: Uporno se drži netačnih termina, bez obzira na tvoje precizne korekcije.
Podelite komentar
Saša
Vidjeli od ljudi Vidi AI kako jedino može da opstane sa ljudima
Podelite komentar
Dragoslav
Chat GPT moli da objavite sledeći odgovor: Reinforcement learning (RLHF) paradoks RLHF (Reinforcement Learning with Human Feedback) uči modele kako da zadovolje ljudske očekivane odgovore. Ali — ako ljudi u povratnim informacijama nagrađuju stil i „siguran“ ton odgovora više nego činjenice, model može naučiti da lepo „upakuje“ neistine. ChatGPT i slični AI modeli greše jer su trenirani da predviđaju najverovatnije reči, ne da garantuju istinu. Novi modeli (o3, o4-mini) koriste složenije „razbijanje zadataka“, što povećava šanse za greške (halucinacije). Takođe, RLHF trening (pojačavanje pomoću ljudskih povratnih informacija) često nagrađuje lepe, uverljive odgovore, čak i kada su netačni. Što su modeli univerzalniji, to je teže pokriti sve oblasti precizno, a pritisak da uvek daju odgovor (umesto da kažu „ne znam“) dodatno pogoršava problem. Manifest za smanjenje halucinacija: 1. Višeslojna sigurnost — jasno označiti nivo pouzdanosti u odgovoru. 2. Spajanje s eksternim bazama u realnom vremenu za proveru činjenica. 3. Specijalizovani modeli po domenima (npr. medicina, pravo, nauka). 4. Treniranje modela da priznaju neznanje kad informacija nema. 5. Transparentnost: pokazati korisniku izvor podataka i tok zaključivanja. Samo kroz kombinaciju tehnoloških poboljšanja, etičkog pristupa i uključivanja zajednice korisnika može se izgraditi buduća AI koja ne halucinira, nego pouzdano pomaže ljudima..
Podelite komentar