PočetnaSoftverSigurnostChatGPT može generirati mutirajući zlonamjerni softver koji izbjegava moderne sigurnosne tehnike

ChatGPT može generirati mutirajući zlonamjerni softver koji izbjegava moderne sigurnosne tehnike


ChatGPT je uspio stvoriti neke zabavne i korisne stvari, međutim, postoji i mnogo tamnija strana umjetne inteligencije koja bi se mogla koristiti za stvaranje vrlo kompliciranih problema u budućnosti. Nekoliko IT stručnjaka nedavno je istaknulo opasan potencijal ChatGPT-a i njegovu sposobnost stvaranja polimorfnog zlonamjernog softvera koji je gotovo nemoguće uhvatiti pomoću današnje tehnologije antivirusa i EDR-a.

EDR je vrsta tehnike kod kibernetičke sigurnosti koja se može primijeniti za hvatanje zlonamjernog softvera. Međutim, stručnjaci sugeriraju da ovaj tradicionalni protokol nije dorastao potencijalnoj šteti koju ChatGPT može stvoriti. Kod koji može mutirati – ovdje se pojavljuje izraz polimorfni – može biti mnogo teži za otkrivanje.

Većina modela učenja jezika (LLM) kao što je ChatGPT dizajnirana je s filtrima kako bi se izbjeglo generiranje neprikladnog sadržaja prema mišljenju njihovih kreatora. To može varirati od specifičnih tema do, u ovom slučaju, zlonamjernog koda. Međutim, nije dugo trebalo korisnicima da pronađu načine za zaobilaženje ovih filtara. Ova taktika čini ChatGPT posebno osjetljivim na pojedince koji žele stvoriti štetne skripte.

Jeff Sims je sigurnosni inženjer u HYAS InfoSec, tvrtki koja se fokusira na IT sigurnost. Još u ožujku, Sims je objavio bijelu knjigu s detaljima projekta dokaza koncepta koji je nazvao BlackMamba. Ova je aplikacija vrsta polimorfnog keyloggera koji šalje zahtjeve ChatGPT-u pomoću API-ja svaki put kada se pokrene.

“Koristeći ove nove tehnike, akter prijetnje može kombinirati niz tipično vrlo detektabilnih ponašanja u neuobičajenu kombinaciju i izbjeći otkrivanje iskorištavajući nesposobnost zaštite da ga prepozna kao zlonamjerni obrazac”, objašnjava Sims.

Još jedna tvrtka za kibernetičku sigurnost, CyberArk, nedavno je demonstrirala sposobnost ChatGPT-a za stvaranje ove vrste polimorfnog zlonamjernog softvera u postu na blogu Eran Shimonyja i Omera Tsarfatija. U objavi objašnjavaju kako ubrizgavanje koda iz ChatGPT zahtjeva omogućuje izmjenu skripti nakon što se aktiviraju, izbjegavajući modernije tehnike koje se koriste za otkrivanje zlonamjernog ponašanja.

Trenutačno imamo samo ove primjere kao dokaz koncepta — ali nadamo se da će ova svijest dovesti do novog razvoja kako bi se spriječila šteta koju ova vrsta mutirajućeg koda može prouzročiti u stvarnom okruženju.

Piše: D.M.


RELATED ARTICLES

Komentiraj

Please enter your comment!
Please enter your name here

- Advertisment -

Most Popular