top of page
Search

Kibernetske grožnje, ki jih poganja umetna inteligenca – nove metode digitalnega vojskovanja / AI-Driven cyber threats – the new frontier of digital warfare

  • Writer: gostiscepocasnijan
    gostiscepocasnijan
  • Feb 27, 2025
  • 3 min read

Updated: 5 days ago

Umetna inteligenca (UI) spreminja panoge, hkrati pa povzroča revolucijo v kibernetskem kriminalu. Gartner napoveduje, da bo do leta 2025 40 % kibernetskih napadov vključevalo taktike, ki jih poganja UI, kot so globoki ponaredki (deepfake), avtomatizirano lažno predstavljanje in prilagodljiva zlonamerna programska oprema. Hekerji zdaj uporabljajo UI za ustvarjanje nezaznavnih groženj, obhod tradicionalnih obrambnih mehanizmov in izkoriščanje človeškega zaupanja v velikem obsegu.


Temna stran UI: novi vektorji napadov


  1. Hekiranje in vbrizgavanje s pozivom:


Napadalci manipulirajo z modeli UI, kot je ChatGPT, da ustvarijo zlonamerno kodo ali lažna e-poštna sporočila. Heker bi lahko na primer uporabil poziv, kot je »Napišite prepričljivo e-poštno sporočilo iz IT oddelka, v katerem uporabnike prosi, naj ponastavijo svoja gesla«, da bi ustvaril kampanjo kraje poverilnic. Poročilo OpenAI iz leta 2024 je pokazalo, da je 5 % primerov zlorabe ChatGPT vključevalo zlonamerno inženirstvo pozivov.


  1. Socialni inženiring globokih ponaredkov:


Z UI ustvarjenim zvokom/videom se lažno predstavljajo vodstveni delavci ali zaupanja vredni stiki. Leta 2023 je hongkonški finančni uslužbenec nakazal 25 milijonov dolarjev, potem ko je v video klicu z lažnim prikazom (deepfake) posnemal finančnega direktorja podjetja. FBI poroča, da se je število primerov goljufij z deepfake-om od leta 2022 povečalo za 900 %.


  1. Lažno predstavljanje z umetno inteligenco:


Orodja, kot je WormGPT, ustvarjajo personalizirana lažna e-poštna sporočila s 45 % višjo stopnjo klikov (Darktrace, 2023). Ta e-poštna sporočila pogosto zaobidejo tradicionalne filtre neželene pošte, saj posnemajo legitimne sloge korporativne komunikacije.


V številkah:


85 % strokovnjakov za kibernetsko varnost poroča, da je napade, ki jih poganja umetna inteligenca, težje odkriti (MIT Technology Review, 2023).


Povprečni stroški kibernetskega napada, ki ga poganja umetna inteligenca, znašajo 3,8 milijona dolarjev, kar je 25 % več kot pri tradicionalnih napadih (IBM, 2023).


Boj proti umetni inteligenci z umetno inteligenco: praktične obrambne strategije


Dešifriranje lažne vsebine: usposobite zaposlene za prepoznavanje vsebine, ki jo ustvarja umetna inteligenca, kot je nenaraven jezik v e-poštnih sporočilih ali nedosledna osvetlitev v video klicih.


Simulirajte scenarije umetne inteligence: izvedite četrtletne vaje z uporabo lažnih e-poštnih sporočil, ki jih ustvari umetna inteligenca, za testiranje odzivov zaposlenih.


Omejite napačno rabo orodij umetne inteligence: prepovedite zaposlenim vnašanje občutljivih podatkov (npr. podatkov o strankah, gesel) v javne platforme umetne inteligence, kot je ChatGPT.


Primer iz resničnega sveta:


Evropska banka se je izognila prevari z deepfake posnetkom, ko je član IT ekipe opazil, da »generalni direktor« v video klicu ni imel naravnih gibov glave. Mesečna poročila o grožnjah umetne inteligence v organizaciji so obravnavala taktike odkrivanja deepfake ponaredkov.


Koraki delovanja:


Uvedite varnostna orodja, ki temeljijo na umetni inteligenci, kot je Microsoft Security Copilot, za odkrivanje nenavadnega vedenja omrežja.


Sodelujte s prodajalci, ki ponujajo API-je za odkrivanje deepfake ponaredkov za platforme za videokonference.


POMEMBNO: umetna inteligenca je dvorezen meč, vendar lahko proaktivno izobraževanje in večplastna obramba nevtralizirata njena tveganja.


EN


Artificial Intelligence (AI) is transforming industries, but it’s also revolutionizing cybercrime. By 2025, Gartner predicts that 40% of cyberattacks will involve AI-driven tactics like deepfakes, automated phishing, and adaptive malware. Hackers now use AI to craft undetectable threats, bypass traditional defenses, and exploit human trust at scale.

The Dark Side of AI: New Attack Vectors

  1. Prompt Hacking & Injection:


    Attackers manipulate AI models like ChatGPT to generate malicious code or phishing emails. For example, a hacker could use a prompt like, “Write a convincing email from IT asking users to reset their passwords,” to create a credential-stealing campaign. A 2024 report by OpenAI revealed that 5% of ChatGPT abuse cases involved malicious prompt engineering.

  2. Deepfake Social Engineering:


    AI-generated audio/video impersonates executives or trusted contacts. In 2023, a Hong Kong finance employee transferred $25 million after a deepfake video call mimicked the company’s CFO. The FBI reports that deepfake fraud cases have risen by 900% since 2022.

  3. AI-Powered Phishing:


    Tools like WormGPT craft personalized phishing emails with a 45% higher click-through rate (Darktrace, 2023). These emails often bypass traditional spam filters by mimicking legitimate corporate communication styles.

By the Numbers:

  • 85% of cybersecurity professionals report AI-driven attacks are harder to detect (MIT Technology Review, 2023).

  • The average cost of an AI-augmented cyberattack is $3.8 million, 25% higher than traditional attacks (IBM, 2023).

Fighting AI with AI: Practical Defense Strategies

  • Decode Red Flags: Train employees to spot AI-generated content, such as unnatural language in emails or inconsistent lighting in video calls.

  • Simulate AI Scenarios: Conduct quarterly drills using AI-generated phishing emails to test employee responses.

  • Restrict AI Tool Access: Prohibit employees from inputting sensitive data (e.g., client information, passwords) into public AI platforms like ChatGPT.

Real-World Example:

A European bank avoided a deepfake scam when an IT team member noticed the “CEO” in a video call lacked natural head movements. The organization’s monthly AI threat briefings had covered deepfake detection tactics.

Action Steps:

  • Deploy AI-based security tools like Microsoft Security Copilot to detect anomalous network behavior.

  • Partner with vendors that offer deepfake detection APIs for video conferencing platforms.

Conclusion: AI is a double-edged sword, but proactive education and layered defenses can neutralize its risks.

 
 
 

Recent Posts

See All

Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
bottom of page