Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities

dc.contributor.author Chlasta, Karol
dc.date.accessioned 2026-01-28T12:19:36Z
dc.date.available 2026-01-28T12:19:36Z
dc.date.issued 2025
dc.description.abstract W dobie rosnącej roli sztucznej inteligencji (AI) w cyberbezpieczeństwie, generatywna sztuczna inteligencja (GenAI) staje się zarówno narzędziem obronnym, jak i potencjalnym zagrożeniem. Niniejsza praca przedstawia przegląd metod sztucznej inteligencji, w tym generatywnej sztucznej inteligencji, w kontekście cyberbezpieczeństwa, uwzględniając zarówno nowe techniki ataków, jak i rozwiązania obronne, wspierane przez automatyczne modelowanie tematów. Rozdział zawiera wyniki przeglądu literatury naukowej dotyczącej cyberbezpieczeństwa i sztucznej inteligencji w latach 2017-2024, obejmującego 2420 publikacji z IEEE Xplore Digital Library i Springer- Link. Publikacje koncentrują się głównie na następujących tematach: (1) phishing (407 publikacji; 16,82%), (2) techniki adversarial (347 publikacji; 14,34%), (3) ChatGPT (352 publikacje; 14,55%), (4) duże modele językowe (LLM) (352 publikacje; 14,55%) oraz podatności (77 publikacji; 3,18%). Zidentyfikowane zagrożenia związane z wykorzystaniem LLM w generowaniu phishingu, automatycznym hakowaniu oraz tworzeniu złośliwego oprogramowania zostały szczegółowo podsumowane. Ponadto, zaobserwowano wzrost znaczenia narzędzi opartych na GenAI w obszarze detekcji zagrożeń, analizy kodu oraz automatyzacji cyberobrony. Zdecydowanie widać, że tematy związane z szeroko rozumianą generatywną sztuczną inteligencją (LLM i ChatGPT) stanowią większy zbiór (704 publikacje) niż tradycyjne metody uczenia maszynowego, w tym zagrożenia związane z manipulowaniem danymi wejściowymi do systemów SI (tematyka adversarial obejmuje tylko 347 publikacji). Rozdział podsumowuje również zidentyfikowane regulacje prawne oraz standardy dotyczące cyberbezpieczeństwa, takie jak NIS2, NIST AI Risk Management Framework oraz standardy ISO/IEC 22989, 23053, 23984 i 42001. Praca ukazuje rosnącą i istotną rolę różnych metod generatywnej sztucznej inteligencji w kształtowaniu przyszłości cyberbezpieczeństwa, podkreślając konieczność opracowania nowych strategii ochrony przed nowymi zagrożeniami w zmieniającym się środowisku organizacyjnym, w którym coraz bardziej polegamy na publicznej infrastrukturze chmurowej.
dc.description.abstract In an era marked by the increasing influence of artificial intelligence (AI) in cybersecurity, generative AI (GenAI) has emerged as both a formidable defensive tool and a potential threat. This chapter examines new AI methods, with a particular focus on generative AI, within the context of cybersecurity, addressing both emerging attack strategies and defensive solutions, as informed by automated topic modelling. The chapter presents a comprehensive review of scientific literature on cybersecurity and AI, spanning the years 2017 to 2024, drawing from a total of 2,420 publications sourced from the IEEE Xplore Digital Library and SpringerLink. The publications primarily address the following topics: (1) phishing (407 publications; 16.82%), (2) adversarial techniques (347 publications; 14.34%), (3) ChatGPT (352 publications; 14.55%), (4) large language models (LLMs) (352 publications; 14.55%), and vulnerabilities (77 publications; 3.18%). The risks associated with the use of LLMs in phishing campaigns, automated hacking, and malware generation are systematically summarised. Furthermore, the growing prominence of GenAI-based tools in threat detection, code analysis, and the automation of cyber defence is highlighted. Notably, the body of work dedicated to GenAI, comprising of LLMs and ChatGPT, outnumbers the traditional machine learning studies, with 704 papers on the former compared to just 347 on adversarial topics. The chapter also explores key cybersecurity regulations and standards identified in the literature, including NIS2, the NIST AI Risk Management Framework, and a range of ISO/IEC standards (22989, 23053, 23984, and 42001). This review underscores the increasing and pivotal role of various generative AI methods in shaping the future landscape of cybersecurity, while emphasising the urgent need for new strategies to defend against evolving threats in an environment increasingly dependent on public cloud infrastructure. en
dc.identifier.isbn 9788368103205
dc.identifier.uri https://hdl.handle.net/20.500.13044/2456
dc.identifier.uri https://doi.org/10.29316/9788368103205_3
dc.language.iso pl
dc.publisher Akademia Bialska im. Jana Pawła II
dc.subject Generatywna Sztuczna Inteligencja (AI) pl
dc.subject Duże Modele Językowe (LLM) pl
dc.subject Zagrożenia oparte na AI pl
dc.subject Cyberbezpieczeństwo pl
dc.subject Symulacja ataków pl
dc.subject Generative AI en
dc.subject Large Language Models (LLMs) en
dc.subject AI-Driven Threats en
dc.subject Cybersecurity en
dc.subject Offensive Security en
dc.title Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities
dc.type Book chapter
Pliki
Oryginalny pakiet
Aktualna strona 1 - 1 z 1
Miniatura obrazu
Nazwa:
Sztuczna inteligencja w cyberbezpieczenstwie.pdf
Rozmiar:
1.58 MB
Format:
Adobe Portable Document Format
Opis:
Pakiet licencji
Aktualna strona 1 - 1 z 1
Brak dostępnej miniatury
Nazwa:
license.txt
Rozmiar:
652 B
Format:
Item-specific license agreed to upon submission
Opis: