Napredak veštačke inteligencije omogućio je kriminalnim akterima da skaliraju i automatizuju internet prevare. AI-pojačana prevara — uključujući generisani phishing, deepfake audio/video i automatizovane socijalno-inženjerske napade — predstavlja novu klasu pretnji koja zahteva akademski rigoroznu analizu. Ovaj rad kombinuje kvantitativne podatke, model rizika, komparativnu statistiku i akademske izvore kako bi dao sveobuhvatnu sliku trenutnih trendova i budućih izazova u domenu AI-pogona prevara.
1. Uvod
Preliminarne analize pokazuju da internet prevare više nisu izolovani incidenti — one su postale globalni bezbednosni problem sa milijardama finansijskih gubitaka godišnje. Prema FBI IC3 izveštaju iz 2025., internet kriminal doveo je do gubitaka od 16,6 milijardi USD samo u 2024. godini, uz preko 850.000 prijava žrtava cyber prevara.
AI tehnologije su ovu dinamiku dodatno ubrzale, omogućavajući napade bez potrebe za velikim tehničkim znanjem, ali sa visokim ubedljivim efektom.
2. Statistika o internet prevarama
2.1 Globalni troškovi i učestalost cyber kriminala
Prema FBI IC3, ukupan finansijski gubitak od online prevara u 2024. iznosio je najmanje 16,6 milijardi USD, što predstavlja porast od 33% u odnosu na 2023. godinu.
Ove brojke obuhvataju phishing, lažno predstavljanje, online investicione prevare i ostale oblike digitalnog kriminala.
Studije procenjuju da će globalna cena cyber kriminala dostići bilionske cifre do sredine 2020-tih, sa troškovima od 8–10 triliona USD godišnje u narednih nekoliko godina.
3. AI-pogonjene prevare — kvantitativni uvid
AI povećava postojeće obrasce prevara na više načina:
3.1 Deepfake proliferacija
- Deepfake fajlovi su porasli sa ~500.000 u 2023. na projekciju od 8 miliona do 2025.
- Broj deepfake incidenata porastao je za preko 2.137% između 2022. i 2025.
- AI-generisani phishing i deepfake prevara sada čine oko 6,5% svih fraud napada, sa tendencijom rasta.
Ova eksplozija količine i dostupnosti sintetizovanog sadržaja omogućava napade koji se kreću od AI glasovnih vishing poziva do video imitacija direktora kompanija.
3.2 Vishing i voice phishing
AI-pogonjeni glasovni napadi (vishing) su eksplodirali — globalno su zabeleženi porasti do 442% između 2023. i 2025.
Procene projekcija govore o potencijalnih 40 milijardi USD gubitaka do 2027. samo u ovoj kategoriji.
4. Modeli rizika AI prevara
Kako kvantifikovati rizik napada? U ovom delu uvodimo formalni model rizika, koji se koristi u akademskim i industrijskim procenama bezbednosti:
4.1 Model rizika: R = P ⋅ I ⋅ V
Gde je:
- R – ukupni rizik od prevara
- P – verovatnoća inicijalnog napada
- I – intenzitet finansijskog ili reputacionog gubitka
- V – sistemska ranjivost (ljudski + tehnološki faktor)
Ovaj model omogućava organizacijama da formalno izračunaju rizik na osnovu učestalosti incidenata, očekivanih gubitaka i stepena ranjivosti korisnika.
5. AI i dinamička analiza napada
AI omogućava napadima da se adaptiraju u realnom vremenu. To znači da statistika nije statična, već dinamična funkcija: P(t)=P0⋅ektP(t) = P_0 \cdot e^{kt}P(t)=P0⋅ekt
Gde:
- P(t)P(t)P(t) je verovatnoća napada u trenutku ttt
- P0P_0P0 je početna verovatnoća
- kkk je koeficijent rasta napada
Studije pokazuju da se učestalost deepfake incidenata može modelovati eksponencijalnim trendom, sa kkk vrednostima koje značajno prelaze linearni rast kriminala.
6. Uticaj AI prevara na organizacije
6.1 Finansijski uticaj
Globalni troškovi uključuju:
- Direct phishing/BEC gubici: milijarde dolara godišnje
- Organizacione troškove oporavka
- Gubitak reputacije
Prema dostupnim podacima, deepfake prevarama u 2025. pojedinačne organizacije gube prosečno ~500.000 USD po incidentu, dok velike firme mogu izgubiti i do 680.000 USD ili više po napadu.
7. Socijalni i psihološki uticaj
Deepfake i AI pretnje nisu samo finansijski izazov — one podrivaju poverenje u komunikaciju i institucije. Studije pokazuju da:
- 90% ispitanika u UK je izrazilo ozbiljnu zabrinutost zbog deepfake tehnologije i njenih posledica.
Ovo je ključni faktor za razumevanje zašto edukacija i medijska pismenost moraju postati deo javne politike.
8. Detekcija i odbrana
8.1 AI u odbrani
Paralelno sa zloupotrebom AI, razvija se i detekciona tehnologija. Naučni radovi ukazuju na:
- AI modele za detekciju phishing sa >98% tačnosti koristeći konvolucione neuronske mreže — što znatno nadmašuje tradicionalne metode.
8.2 Ograničenja detekcije
Međutim, analiza izveštaja o dubokim lažima pokazuje da ljudska detekcija deepfake videa ostaje niska (~24.5%), zbog čega alati i dalje ne mogu samostalno da osiguraju potpunu zaštitu.
9. Preporuke za strategije mitigacije
Bazirajući se na statističkim trendovima i modelima rizika, preporučujemo:
9.1 Višestruki slojevi zaštite
✔ Edukacija zaposlenih na svim nivoima
✔ Zero Trust model u organizacijama
✔ Behavioral biometrics za autentifikaciju
✔ Real-time detekcija anomalija
10. Akademske implikacije i buduća istraživanja
U svetu u kojem AI pokreće napade i odbranu, akademska zajednica treba da fokusira istraživanja na:
- Dinamična modelovanja rizika
- Validaciju detekcionih modela
- Psihologiju komunikacije u AI okruženju
- Ekonomski uticaj prevara na macro nivo
11. Zaključak
AI ne samo što menja digitalnu kriminalnu dinamiku — on je postao integralni faktor njene eskalacije. Statistika pokazuje dramatične poraste deepfake, vishing i AI phishing napada. S obzirom na brzinu rasta i sofisticiranost, globalna bezbednosna strategija mora biti koordinisana, interdisciplinarna i stalno adaptirana.
Izabrane reference
Akademski izvori
- Houtti et al. A Survey of Scam Exposure, Victimization, Types, Vectors, and Reporting in 12 Countries (arXiv, 2024).
- Sippy et al. Behind the Deepfake: Public Exposure and Perceptions (arXiv, 2024).
- Yerima & Alzaylaee. High Accuracy Phishing Detection Using CNN (arXiv, 2020).
Statistički i industrijski izvori
- Deepfake fraud stats 2025 (Keepnet, 2025).
- Vishing and voice phishing trends 2025 (Keepnet & Deepstrike, 2025).
- Phishing and internet crime stats 2024–2025.
Novinski izveštaji
- FBI cybercrime losses $16.6B (Reuters, Apr 2025).
- Deepfake fraud on industrial scale (The Guardian, Feb 2026).
Foto: Ilustracija/ pixabay
