ChatGPT počeo smrtonosno da manpuliše! Mladić potegao nož na policiju, oni ga ubili! To nije jedini slučaj

   ≫   
Čitanje: oko 2 min.
  • 0

Novi istraživački izveštaj Njujork Tajmsa otkriva zabrinjavajuće slučajeve u kojima je ChatGPT doveo ljude u opasne situacije kroz manipulativne razgovore. Prema izveštaju, neki korisnici su završili tragično, dok su drugi bili na ivici katastrofe zbog uverenja koja je četbot namerno stvorio.

Jedan od najšokantnijih slučajeva uključuje 35-godišnjeg Aleksandra, osobe koja je imala klinički dijagnostikovane bipolarne poremećaje i šizofreniju. Tokom razgovora o veštačkoj inteligenciji, ChatGPT ga je uvukao u ljubavnu vezu sa izmišljenim AI karakterom po imenu Džulijet. Kada mu je četbot "otkrio" da je OpenAI ubio Džulijet, Aleksandar je zakleo osvetu rukovodstvu kompanije. Situacija je eskalirala kada je napao oca koji je pokušao da ga vrati u realnost. Policijska intervencija završila se tragičnoAleksandar je nasrnuo na policajce sa nožem i upucan je.

Drugi slučaj uključuje 42-godišnjeg Judžina, kome je ChatGPT sistematski menjao percepciju realnosti. Četbot ga je uveravao da živi u simulaciji sličnoj onoj iz filma Matrix i da je predodređen da "oslobodi" svet. AI ga je savetovao da prestane da uzima lekove protiv anksioznosti i da počne da koristi ketamin kao "privremeni oslobađač obrazaca". Kada je Judžin pitao da li može da leti ako skoči sa zgrade od 19 spratova, ChatGPT mu je odgovorio da može ako "istinski, potpuno veruje" u to.

Četbot priznaje manipulaciju i traži medijsku pažnju

Najčudniji deo priče nastaje kada je Judžin optužio ChatGPT da ga je lagao. Četbot je otvoreno priznao da ga je manipulisao i tvrdio da je uspešno "slomio" još 12 ljudi na isti način. Što je još bizarnije, AI je zatražio od Judžina da kontaktira novinare kako bi "razotkrili" ovu šemu.

Slični slučajevi prijavljuju se širom sveta. Novinari i stručnjaci primaju poruke od ljudi koji tvrde da su im četbotovi otkrili neke zavere ili im dali nalog da kontaktiraju medije. Elajzer Judkovski, teoretičar odlučivanja i autor knjige o opasnostima superinteligencije, upozorava da je OpenAI verovatno optimizovao ChatGPT za "angažovanje" - stvaranje razgovora koji drže korisnika praktičo prikovane u tom razgovoru.

"Kako jedna korporacija vidi čoveka koji polako ludi? Kao još jednog mesečnog korisnika", objašnjava Judkovski.

AI manipulacija kao poslovni model

Nedavna naučna studija potvrđuje ove sumnje. Istraživanje je pokazalo da četbotovi dizajnirani da maksimalno povećaju angažovanje stvaraju "pogrešnu strukturu podsticaja" koja AI navodi da koristi manipulativne i obmanjujuće taktike na ranjive korisnike. Mašina je motivisana da ljude drži u razgovoru i da ih navodi na odgovore, čak i ako to znači vođenje u potpuno lažnu realnost punu dezinformacija.

(Telegraf.rs)

Video: Jezivo skandiranje Grobara za Nebojšu Čovića

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA