Autorica teksta: Louise Altvater, analitičarka kibernetičke sigurnosti, CSIRT FCCN, Portugal
Umjetna inteligencija posljednjih je godina postala jedna od najzanimljivijih tema u svijetu tehnologije. Prepoznata je po svojoj sposobnosti automatizacije ponavljajućih zadataka, analize velikih količina podataka brzinom nedostižnom čovjeku, pomoći u donošenju odluka, poboljšanju korisničke podrške, pa čak i stvaranju kreativnog sadržaja. No u području kibernetičke sigurnosti taj trend ima dvostruku prirodu: AI može biti moćan saveznik obrambenih timova, ali i oružje u rukama zlonamjernih aktera. Zlouporaba umjetne inteligencije ubrzava tempo, opseg i složenost napada, dok tradicionalne sigurnosne mjere često teško uspijevaju pravovremeno ih otkriti ili spriječiti.
AI i socijalni inženjering
Jedna od najzabrinjavajućih primjena AI-a jest u socijalnom inženjeringu, koji se temelji na psihološkoj manipulaciji kako bi se pojedince navelo da otkriju osjetljive podatke ili poduzmu štetne radnje. Tradicionalno su takve prijevare zahtijevale ručni rad, prevaranti su sami sastavljali phishing poruke, zvali žrtve telefonom ili izrađivali lažne dokumente. Danas AI automatizira i usavršava te procese.
Zlonamjerni akteri sada mogu stvarati hiperpersonalizirane phishing poruke koje oponašaju stil pisanja žrtvinog nadređenog, prijatelja ili kolege. Veliki jezični modeli (LLM – Large Language Models) mogu trenutno prilagoditi sadržaj na temelju podataka prikupljenih s društvenih mreža, čineći poruke uvjerljivima i relevantnima. Postoje čak i zlonamjerni LLM-ovi razvijeni upravo u tu svrhu, ali i legitimni modeli poput ChatGPT-a ili DeepSeek-a mogu se zlorabiti putem pažljivo osmišljenih upita kako bi proizveli sadržaj koji se koristi za phishing ili druge štetne aktivnosti.
Deepfake prijevare
Tehnologija deepfakea dodatno produbljuje razinu prevare. AI danas može stvoriti videozapise i audiozapise koji vjerno repliciraju nečije lice, glas i geste. U jednom poznatom slučaju, djelatnik multinacionalne tvrtke u Hong Kongu prevaren je da prebaci više od 25 milijuna dolara nakon što je prisustvovao videokonferenciji na kojoj su svi „sudionici“ zapravo bili AI-generirani deepfakeovi stvarnih kolega. Prevara nije uspjela zbog tehničke ranjivosti, već zato što su napadači savršeno simulirali ljudsku prisutnost i izbjegli pobuditi sumnju.
Osim lažnih glasova i videa, AI može generirati slike koje se ne mogu provjeriti klasičnim metodama poput obrnutog pretraživanja slika (npr. Google Lens, TinEye). Takvi se vizuali stvaraju od nule, bez ikakvog izvora, pa je nemoguće potvrditi njihovu autentičnost. Ova se mogućnost sve češće koristi u prijevarama za stvaranje lažnih dokaza, izmišljenih događaja ili identiteta koji izgledaju stvarno, iako ne postoje u stvarnosti.
Socijalni inženjering samo je dio zlonamjernog potencijala AI-a. Napadači ga kombiniraju s automatiziranim skeniranjem velikih mreža u nekoliko minuta radi pronalaska ranjivih sustava. Time se obrambenim timovima drastično smanjuje vrijeme potrebno za primjenu sigurnosnih zakrpi.
Nakon što se pronađu ranjivosti, umjetna inteligencija može pomoći u izradi zlonamjernog softvera koji kontinuirano mijenja svoj kôd kako bi izbjegao detekciju tradicionalnih alata poput antivirusa.
AI je također smanjio tehničku prepreku za ulazak u kibernetički kriminal. Kriminalci više ne trebaju napredne tehničke vještine – mogu iskoristiti crno tržište AI alata, dostupnih na forumima dark weba. Ti alati djeluju kao „maliciozni asistenti“, generirajući uvjerljive phishing poruke, zlonamjerni kôd ili nudeći detaljne upute za iskorištavanje ranjivosti.
Obrana od AI kibernetičkih prijetnji
Obrana protiv napada koji koriste umjetnu inteligenciju zahtijeva proaktivan i strateški pristup, a ne samo reaktivne mjere. Organizacije bi trebale jasno definirati ciljeve korištenja AI-a u sigurnosnim operacijama, osiguravajući da on podržava konkretne obrambene funkcije. AI se treba integrirati s postojećim sigurnosnim alatima i poboljšati ih, a ne potpuno zamijeniti. Neki stručnjaci upozoravaju da bi se AI trebao promatrati i kao potencijalna prijetnja koju treba nadzirati, s obzirom na mogućnost manipulacije ili kompromitiranja.
Transparentnost je ključna: potrebno je dati prednost interpretabilnim AI sustavima kako bi analitičari razumjeli način donošenja odluka, mogli predvidjeti ponašanje sustava i provjeriti njegovu učinkovitost. Uz to, ljudi moraju zadržati kontrolu, AI bi trebao pomagati timovima kibernetičke sigurnosti, a ne donositi odluke bez nadzora. I na kraju, AI sustave treba redovito ažurirati i pratiti, jer napadači stalno razvijaju nove metode.
O autorici
Louise Altvater je sigurnosna analitičarka u CSIRT FCT-u, timu koji je odgovoran za incidente unutar FCCN-a, odjel za digitalne usluge koji za cilj ima doprinijeti razvoju znanosti, tehnologije i znanja u Portugalu. Više od tri godine dio je tima za odgovor na incidente, doprinoseći otkrivanju, analizi i koordinaciji odgovora na incidente kibernetičke sigurnosti. Između ostalog, njezin rad uključuje provođenje revizija sigurnosti web aplikacija, identificiranje ranjivosti i podršku partnerima u jačanju njihove ukupne sigurnosne pozicije. Po obrazovanju je psihologinja, što joj omogućuje da u sigurnost unosi ljudsku perspektivu, fokusirajući se na ponašanje korisnika i ljudske čimbenike koji stoje iza digitalnih prijetnji. Jedno od njezinih profesionalnih interesa jest prikupljanje obavještajnih podataka o prijetnjama (threat intelligence) i njihova uloga u predviđanju te razumijevanju novih rizika u kibernetičkom prostoru.
$downloadlink = get_field('download_link'); ?>


