≫ 

Google DeepMind istraživač je koautor rada koji tvrdi da će veštačka inteligencija istrebiti čovečanstvo

Prema novom radu, superinteligentna veštačka inteligencija će "verovatno" izazvati egzistencijalnu katastrofu za čovečanstvo

  • 0
Robot ubica Foto: Unsplash

Nakon godina razvoja, veštačka inteligencija sada vozi automobile na javnim putevima, pravi procene koje menjaju život ljudima u popravnim ustanovama i stvara nagrađivanu umetnost.

Pitanje koje se već neko vreme "krčka" u umovima naučnika i običnih ljudi je da li bi superinteligentna veštačka inteligencija mogla da krene svojim putem i uništi čovečanstvo, a istraživači sa Univerziteta u Oksfordu i jedan istraživač povezan sa Google DeepMind projektom su sada zaključili da je to "verovatno" u novom istraživanju.

Rad, objavljen prošlog meseca u recenziranom časopisu AI Magazine, je interesantno štivo koje razmatra o tome kako bi veštačka inteligencija mogla da predstavlja egzistencijalni rizik za čovečanstvo posmatrajući kako bi sistemi nagrađivanja mogli biti veštački konstruisani.

Da vam damo malo konteksta: najuspešniji modeli veštačke inteligencije danas su poznati kao GAN, ili Generativne Adversarial Networks. Imaju dvodelnu strukturu gde jedan deo programa pokušava da generiše sliku (ili rečenicu) od ulaznih podataka, a drugi deo ocenjuje njegov učinak.

Ono što novi naučni rad predlaže jeste da bi u nekom trenutku u budućnosti, napredni AI koji nadgleda neku važnu funkciju mogao biti podstaknut da smisli strategije varanja kako bi dobio nagradu na načine koji štete čovečanstvu.

"U uslovima koje smo identifikovali, naš zaključak je mnogo jači od zaključka bilo koje prethodne publikacije – egzistencijalna katastrofa nije samo moguća, već i verovatna", rekao je jedan od autora na Twitteru.

Pošto bi veštačka inteligencija u budućnosti mogla da poprimi bilo koji oblik i primeni različite dizajne, ovaj rad zamišlja scenarije u ilustrativne svrhe gde bi napredni program mogao da interveniše da dobije svoju nagradu, a da ne postigne svoj cilj. Na primer, veštačka inteligencija možda želi da "eliminiše potencijalne pretnje" i "iskoristi svu dostupnu energiju" kako bi osigurala to da dobije nagradu:

Rad zamišlja scenario gde se život na Zemlji pretvora u igru sa nultom sumom između čovečanstva, sa potrebama da uzgaja hranu i ima struju, i supernapredne mašine, koja će pokušati da iskoristi sve raspoložive resurse da obezbedi svoju nagradu i zaštiti sebe od naših sve većih pokušaja da je zaustavimo.

"Gubitak ove borbe bio bi fatalan", piše u radu. Ove mogućnosti, koliko god bile teorijske, znače da bi trebalo da napredujemo polako – ako uopšte – ka cilju snažnije veštačke inteligencije.

Pretnja od supernapredne veštačke inteligencije je anksioznost sa poznatim oblikom u ljudskom društvu. Strah da će veštački um uništiti čovečanstvo umnogome zvuči kao strah da će vanzemaljski oblici života istrebiti čovečanstvo, što zvuči kao strah da će se strane civilizacije i njihove populacije sukobiti jedna sa drugom u velikom sukobu.

Naročito sa veštačkom inteligencijom, postoji niz pretpostavki koje se moraju napraviti da bi ova antisocijalna vizija imala smisla – pretpostavke koje rad priznaje su skoro u potpunosti "sporne ili moguće izbeći".

Da bi ovaj program mogao da liči na čovečanstvo, da ga nadmaši na svaki smislen način, i da će se takmičiti se sa čovečanstvom za resurse u igri sa nultom sumom, su pretpostavke koje se možda nikada neće ostvariti.

Nakon objavljivanja, Google je rekao da je Markus Hater, koautor rada i istraživač u Google DeepMind projektu, na naučnom radu radio u ulozi profesora na Australijskom nacionalnom univerzitetu, a ne kao član DeepMind projekta – i da je povezanost sa DeepMind-om navedena u časopisu "greška". Google je poslao sledeću izjavu:

"DeepMind nije bio uključen u ovaj rad i autori rada su zatražili ispravke kako bi to odrazili. Postoji širok spektar pogleda i akademskih interesovanja u DeepMind-u, a mnogi u našem timu su takođe univerzitetski profesori i bave se akademskim istraživanjem odvojeno od svog rada u DeepMind-u, kroz svoje univerzitete".

"Iako DeepMind nije bio uključen u ovaj rad, mi duboko razmišljamo o bezbednosti, etici i širim društvenim uticajima veštačke inteligencije i istražujemo i razvijamo AI modele koji su bezbedni, efikasni i usklađeni sa ljudskim vrednostima. Pored traženja mogućnosti u kojima veštačka inteligencija može da otključa široku društvenu korist, mi takođe ulažemo jednake napore u zaštitu od štetnih upotreba."

(Telegraf.rs)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA