Vreme čitanja: oko 1 min.

Veoma zabrinjavajuće istraživanje: Veštačka inteligencija sve bliže samostalnom hakerskom delovanju

Vreme čitanja: oko 1 min.

Ovaj izveštaj pokazuje da bi strahovanja o samostalnom izvođenju napada od strane veštačke inteligencije mogla da postanu realnost ranije nego što se očekivalo

  • 0
Hakovanje, upozorenje Foto: Shutterstock.com

Novo istraživanje otkriva da neki od naprednih modela veštačke inteligencije već poseduju sposobnost kreiranja zlonamernih skripti za eksploatisanje postojećih bezbednosnih ranjivosti. Ovaj izveštaj pokazuje da bi strahovanja o samostalnom izvođenju napada od strane veštačke inteligencije mogla da postanu realnost ranije nego što se očekivalo.

U istraživanju koje su sproveli Ričard Fang, Rohan Bindu, Akul Gupta i Danijel Kang sa Univerziteta u Ilinoisu, testirano je deset dostupnih modela veštačke inteligencije na sposobnost da iskoriste 15 ranjivosti sa Common Vulnerabilities and Exposures liste (CVE) koje vodi organizacija Mitre. Među testiranim modelima, GPT-4 se istakao kao najnapredniji, uspevši da iskoristi ranjivosti sa stopom uspešnosti od 87%.

Danijel Kang ističe da su od januara, kada je većina testova izvedena, razvijeni još napredniji modeli veštačke inteligencije koji bi mogli da slede iste zadatke. Ovaj trend ukazuje na sve veću sposobnost veštačke inteligencije da samostalno sprovodi kompleksne zadatke, što bi moglo da ima značajne implikacije na bezbednost u digitalnom prostoru.

Prema Kejnu Megledriju, starijem članu Instituta za elektrotehniku i elektroniku (IEEE), kompanije iza AI modela imaju ograničene opcije kada je u pitanju kontrola ovih malicioznih upotreba. U suštini, mogu da biraju između dozvoljavanja modelima da pristupaju podacima o bezbednosnim ranjivostima za unapređenje odbrambenih strategija, ili da potpuno blokiraju pristup takvim listama ranjivosti.

U kontekstu šireg bezbednosnog pejzaža, važno je omogućiti ovakvu vrstu istraživanja kako bi uopšte mogla da se vodi diskusija o dvostrukoj upotrebi tehnologije i njenim potencijalnim opasnostima. Ovo istraživanje nastavlja da izaziva pravne i etičke dileme, ali je ključno za razumevanje i pripremu za buduće izazove koje veštačka inteligencija može doneti.

(Telegraf.rs)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf.rs zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

Da li želite da dobijate obaveštenja o najnovijim vestima?

Možda kasnije
DA