Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities
Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities
Data
2025
Autorzy
Chlasta, Karol
Tytuł czasopisma
ISSN czasopisma
Tytuł tomu
Wydawca
Akademia Bialska im. Jana Pawła II
Streszczenie
W dobie rosnącej roli sztucznej inteligencji
(AI) w cyberbezpieczeństwie, generatywna
sztuczna inteligencja (GenAI) staje
się zarówno narzędziem obronnym, jak
i potencjalnym zagrożeniem. Niniejsza praca
przedstawia przegląd metod sztucznej inteligencji,
w tym generatywnej sztucznej inteligencji,
w kontekście cyberbezpieczeństwa,
uwzględniając zarówno nowe techniki ataków,
jak i rozwiązania obronne, wspierane
przez automatyczne modelowanie tematów.
Rozdział zawiera wyniki przeglądu literatury
naukowej dotyczącej cyberbezpieczeństwa
i sztucznej inteligencji w latach
2017-2024, obejmującego 2420 publikacji
z IEEE Xplore Digital Library i Springer-
Link. Publikacje koncentrują się głównie na
następujących tematach: (1) phishing (407
publikacji; 16,82%), (2) techniki adversarial (347 publikacji; 14,34%), (3) ChatGPT (352
publikacje; 14,55%), (4) duże modele językowe
(LLM) (352 publikacje; 14,55%) oraz
podatności (77 publikacji; 3,18%). Zidentyfikowane
zagrożenia związane z wykorzystaniem
LLM w generowaniu phishingu,
automatycznym hakowaniu oraz tworzeniu
złośliwego oprogramowania zostały szczegółowo
podsumowane. Ponadto, zaobserwowano
wzrost znaczenia narzędzi opartych na
GenAI w obszarze detekcji zagrożeń, analizy
kodu oraz automatyzacji cyberobrony. Zdecydowanie
widać, że tematy związane z szeroko
rozumianą generatywną sztuczną inteligencją
(LLM i ChatGPT) stanowią większy
zbiór (704 publikacje) niż tradycyjne metody
uczenia maszynowego, w tym zagrożenia
związane z manipulowaniem danymi
wejściowymi do systemów SI (tematyka
adversarial obejmuje tylko 347 publikacji).
Rozdział podsumowuje również zidentyfikowane
regulacje prawne oraz standardy dotyczące
cyberbezpieczeństwa, takie jak NIS2,
NIST AI Risk Management Framework oraz
standardy ISO/IEC 22989, 23053, 23984
i 42001. Praca ukazuje rosnącą i istotną rolę
różnych metod generatywnej sztucznej inteligencji
w kształtowaniu przyszłości cyberbezpieczeństwa,
podkreślając konieczność
opracowania nowych strategii ochrony przed
nowymi zagrożeniami w zmieniającym się
środowisku organizacyjnym, w którym coraz
bardziej polegamy na publicznej infrastrukturze
chmurowej.
In an era marked by the increasing influence of artificial intelligence (AI) in cybersecurity, generative AI (GenAI) has emerged as both a formidable defensive tool and a potential threat. This chapter examines new AI methods, with a particular focus on generative AI, within the context of cybersecurity, addressing both emerging attack strategies and defensive solutions, as informed by automated topic modelling. The chapter presents a comprehensive review of scientific literature on cybersecurity and AI, spanning the years 2017 to 2024, drawing from a total of 2,420 publications sourced from the IEEE Xplore Digital Library and SpringerLink. The publications primarily address the following topics: (1) phishing (407 publications; 16.82%), (2) adversarial techniques (347 publications; 14.34%), (3) ChatGPT (352 publications; 14.55%), (4) large language models (LLMs) (352 publications; 14.55%), and vulnerabilities (77 publications; 3.18%). The risks associated with the use of LLMs in phishing campaigns, automated hacking, and malware generation are systematically summarised. Furthermore, the growing prominence of GenAI-based tools in threat detection, code analysis, and the automation of cyber defence is highlighted. Notably, the body of work dedicated to GenAI, comprising of LLMs and ChatGPT, outnumbers the traditional machine learning studies, with 704 papers on the former compared to just 347 on adversarial topics. The chapter also explores key cybersecurity regulations and standards identified in the literature, including NIS2, the NIST AI Risk Management Framework, and a range of ISO/IEC standards (22989, 23053, 23984, and 42001). This review underscores the increasing and pivotal role of various generative AI methods in shaping the future landscape of cybersecurity, while emphasising the urgent need for new strategies to defend against evolving threats in an environment increasingly dependent on public cloud infrastructure.
In an era marked by the increasing influence of artificial intelligence (AI) in cybersecurity, generative AI (GenAI) has emerged as both a formidable defensive tool and a potential threat. This chapter examines new AI methods, with a particular focus on generative AI, within the context of cybersecurity, addressing both emerging attack strategies and defensive solutions, as informed by automated topic modelling. The chapter presents a comprehensive review of scientific literature on cybersecurity and AI, spanning the years 2017 to 2024, drawing from a total of 2,420 publications sourced from the IEEE Xplore Digital Library and SpringerLink. The publications primarily address the following topics: (1) phishing (407 publications; 16.82%), (2) adversarial techniques (347 publications; 14.34%), (3) ChatGPT (352 publications; 14.55%), (4) large language models (LLMs) (352 publications; 14.55%), and vulnerabilities (77 publications; 3.18%). The risks associated with the use of LLMs in phishing campaigns, automated hacking, and malware generation are systematically summarised. Furthermore, the growing prominence of GenAI-based tools in threat detection, code analysis, and the automation of cyber defence is highlighted. Notably, the body of work dedicated to GenAI, comprising of LLMs and ChatGPT, outnumbers the traditional machine learning studies, with 704 papers on the former compared to just 347 on adversarial topics. The chapter also explores key cybersecurity regulations and standards identified in the literature, including NIS2, the NIST AI Risk Management Framework, and a range of ISO/IEC standards (22989, 23053, 23984, and 42001). This review underscores the increasing and pivotal role of various generative AI methods in shaping the future landscape of cybersecurity, while emphasising the urgent need for new strategies to defend against evolving threats in an environment increasingly dependent on public cloud infrastructure.
Opis
Słowa kluczowe
Generatywna Sztuczna
Inteligencja (AI),
Duże Modele Językowe
(LLM),
Zagrożenia oparte na AI,
Cyberbezpieczeństwo,
Symulacja ataków,
Generative AI,
Large Language
Models (LLMs),
AI-Driven Threats,
Cybersecurity,
Offensive Security