Vreme čitanja: oko 3 min.

Kako je prvi četbot predvideo opasnosti od veštačke inteligencije pre više od 50 godina

Vreme čitanja: oko 3 min.

Koliko god da su te interakcije delovale kao "prave ljudske", one verovatno nisu naznaka da neka mašine trese svoj kavez

  • 0
Tehnologija naočare odraz Foto: Shutterstock.com

Nije bilo potrebno mnogo vremena da Microsoft-ov pretraživač sa integrisanom veštačkom inteligencijom ispolji neko neprijatno ponašanje nakon što je predstavljen početkom februara, sa čudnim ispadima koji se kreću od neuzvraćenih izjava ljubavi do posmatranja nekih korisnika kao "neprijatelja".

Koliko god da su te interakcije delovale kao "prave ljudske", one verovatno nisu naznaka da neka mašine trese svoj kavez. Zapravo, ispadi ovog četbota odražavaju njegovo programiranje, koje zapravo apsorbuje apsurdne količine digitalizovanog jezika i vraćajući se na ono što korisnici traže.

Drugim rečima, odražava naše onlajn prisustvo. I to nije trebalo da bude iznenađenje - tendencija četbotova da nas imitiraju seže mnogo dalje od razmišljanja o tome da li postoji smisao biti Bing pretraživač.

U stvari, ta tendencija postoji od uvođenja prvog značajnog četbota pre skoro 50 godina.

Godine 1966. kompjuterski naučnik sa MIT-a Džozef Vajzenbaum objavio je ELIZU (nazvanu po izmišljenoj Elizi Dulitl iz drame Pigmalion Džordža Bernarda Šoa iz 1913), prvi program koji je omogućio neku vrstu verodostojnog razgovora između ljudi i mašina. Proces je bio jednostavan: ELIZA bi preformulisala bilo koji govorni unos koji bi joj korisnik dao u pitanje. Ako biste joj rekli da vas je razgovor sa prijateljem naljutio, mogla bi da vas pita: "Zašto se osećate ljuto?"

Ironično, iako je Vajzenbaum dizajnirao ELIZU da pokaže koliko je zapravo površan razgovor između mašine i ljudi, postigao je suprotan efekat. Ljudi su bili oduševljeni, upuštajući se u duge, duboke i privatne razgovore sa programom koji je bio u stanju da im samo reflektuje reči korisnika.

Vajzenbaum je bio toliko uznemiren reakcijom javnosti da je proveo ostatak svog života upozoravajući na opasnosti dopuštanja kompjuterima - i, šire, oblasti veštačke inteligencije kojoj je pomogao da se pokrene - da igraju preveliku ulogu u društvu.

ELIZA je izgradila svoje odgovore oko jedne ključne reči korisnika, čineći je tako prilično malim ogledalom. Današnji četbotovi odražavaju naše tendencije izvučene iz milijardi reči. Bing bi mogao biti najveće ogledalo koje je čovečanstvo ikada napravilo, a mi smo na korak od instaliranja takve generativne AI tehnologije svuda.

Ali još uvek se nismo zaista pozabavili Vajzenbaumovim zabrinutostima, koje postaju sve relevantnije sa svakim novim izdanjem. Ako je jednostavan akademski program iz 60-ih mogao toliko snažno da utiče na ljude, kako će nas naš eskalirajući odnos sa veštačkom inteligencijom koja se koristi za profit promeniti?

Postoji veliki novac koji se može zaraditi u inženjeringu AI koji ne samo da odgovara na naša pitanja, već igra aktivnu ulogu u savijanju našeg ponašanja ka većoj predvidljivosti. Ovo su dvosmerna ogledala. Rizik je, kao što je Vajzenbaum govorio, da bismo bez mudrosti i promišljanja mogli da se izgubimo u sopstvenom iskrivljenom odrazu.

Vajzenbaum nije verovao da bi bilo koja mašina ikada mogla da oponaša — a kamoli da razume — ljudski razgovor. "Postoje aspekti ljudskog života koje kompjuter ne može da razume – ne može", rekao je Vajzenbaum za Njujork Tajms 1977.

"Neophodno je biti ljudsko biće. Ljubav i usamljenost imaju veze sa najdubljim posledicama naše biološke konstitucije. Takvo razumevanje je u principu nemoguće za računar."

Razgovor sa današnjom generacijom četbotova nije samo razgovor sa nama samima, već i sa ogromnim nakupinama digitalizovanog govora. I sa svakom interakcijom, količina dostupnih podataka o obuci raste.

Od uticaja na naše ponašanje na mreži do kuriranja informacija koje konzumiramo, interakcija sa velikim AI programima nas već menja. Što smo usamljeniji, te tehnologije nas više eksploatišu.

(Telegraf.rs)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA