Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities
Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities
| dc.contributor.author | Chlasta, Karol | |
| dc.date.accessioned | 2026-01-28T12:19:36Z | |
| dc.date.available | 2026-01-28T12:19:36Z | |
| dc.date.issued | 2025 | |
| dc.description.abstract | W dobie rosnącej roli sztucznej inteligencji (AI) w cyberbezpieczeństwie, generatywna sztuczna inteligencja (GenAI) staje się zarówno narzędziem obronnym, jak i potencjalnym zagrożeniem. Niniejsza praca przedstawia przegląd metod sztucznej inteligencji, w tym generatywnej sztucznej inteligencji, w kontekście cyberbezpieczeństwa, uwzględniając zarówno nowe techniki ataków, jak i rozwiązania obronne, wspierane przez automatyczne modelowanie tematów. Rozdział zawiera wyniki przeglądu literatury naukowej dotyczącej cyberbezpieczeństwa i sztucznej inteligencji w latach 2017-2024, obejmującego 2420 publikacji z IEEE Xplore Digital Library i Springer- Link. Publikacje koncentrują się głównie na następujących tematach: (1) phishing (407 publikacji; 16,82%), (2) techniki adversarial (347 publikacji; 14,34%), (3) ChatGPT (352 publikacje; 14,55%), (4) duże modele językowe (LLM) (352 publikacje; 14,55%) oraz podatności (77 publikacji; 3,18%). Zidentyfikowane zagrożenia związane z wykorzystaniem LLM w generowaniu phishingu, automatycznym hakowaniu oraz tworzeniu złośliwego oprogramowania zostały szczegółowo podsumowane. Ponadto, zaobserwowano wzrost znaczenia narzędzi opartych na GenAI w obszarze detekcji zagrożeń, analizy kodu oraz automatyzacji cyberobrony. Zdecydowanie widać, że tematy związane z szeroko rozumianą generatywną sztuczną inteligencją (LLM i ChatGPT) stanowią większy zbiór (704 publikacje) niż tradycyjne metody uczenia maszynowego, w tym zagrożenia związane z manipulowaniem danymi wejściowymi do systemów SI (tematyka adversarial obejmuje tylko 347 publikacji). Rozdział podsumowuje również zidentyfikowane regulacje prawne oraz standardy dotyczące cyberbezpieczeństwa, takie jak NIS2, NIST AI Risk Management Framework oraz standardy ISO/IEC 22989, 23053, 23984 i 42001. Praca ukazuje rosnącą i istotną rolę różnych metod generatywnej sztucznej inteligencji w kształtowaniu przyszłości cyberbezpieczeństwa, podkreślając konieczność opracowania nowych strategii ochrony przed nowymi zagrożeniami w zmieniającym się środowisku organizacyjnym, w którym coraz bardziej polegamy na publicznej infrastrukturze chmurowej. | |
| dc.description.abstract | In an era marked by the increasing influence of artificial intelligence (AI) in cybersecurity, generative AI (GenAI) has emerged as both a formidable defensive tool and a potential threat. This chapter examines new AI methods, with a particular focus on generative AI, within the context of cybersecurity, addressing both emerging attack strategies and defensive solutions, as informed by automated topic modelling. The chapter presents a comprehensive review of scientific literature on cybersecurity and AI, spanning the years 2017 to 2024, drawing from a total of 2,420 publications sourced from the IEEE Xplore Digital Library and SpringerLink. The publications primarily address the following topics: (1) phishing (407 publications; 16.82%), (2) adversarial techniques (347 publications; 14.34%), (3) ChatGPT (352 publications; 14.55%), (4) large language models (LLMs) (352 publications; 14.55%), and vulnerabilities (77 publications; 3.18%). The risks associated with the use of LLMs in phishing campaigns, automated hacking, and malware generation are systematically summarised. Furthermore, the growing prominence of GenAI-based tools in threat detection, code analysis, and the automation of cyber defence is highlighted. Notably, the body of work dedicated to GenAI, comprising of LLMs and ChatGPT, outnumbers the traditional machine learning studies, with 704 papers on the former compared to just 347 on adversarial topics. The chapter also explores key cybersecurity regulations and standards identified in the literature, including NIS2, the NIST AI Risk Management Framework, and a range of ISO/IEC standards (22989, 23053, 23984, and 42001). This review underscores the increasing and pivotal role of various generative AI methods in shaping the future landscape of cybersecurity, while emphasising the urgent need for new strategies to defend against evolving threats in an environment increasingly dependent on public cloud infrastructure. | en |
| dc.identifier.isbn | 9788368103205 | |
| dc.identifier.uri | https://hdl.handle.net/20.500.13044/2456 | |
| dc.identifier.uri | https://doi.org/10.29316/9788368103205_3 | |
| dc.language.iso | pl | |
| dc.publisher | Akademia Bialska im. Jana Pawła II | |
| dc.subject | Generatywna Sztuczna Inteligencja (AI) | pl |
| dc.subject | Duże Modele Językowe (LLM) | pl |
| dc.subject | Zagrożenia oparte na AI | pl |
| dc.subject | Cyberbezpieczeństwo | pl |
| dc.subject | Symulacja ataków | pl |
| dc.subject | Generative AI | en |
| dc.subject | Large Language Models (LLMs) | en |
| dc.subject | AI-Driven Threats | en |
| dc.subject | Cybersecurity | en |
| dc.subject | Offensive Security | en |
| dc.title | Sztuczna inteligencja w cyberbezpieczeństwie – wyzwania i możliwości / Artificial intelligence in cybersecurity – challenges and opportunities | |
| dc.type | Book chapter |
Pliki
Oryginalny pakiet
1 - 1 z 1
- Nazwa:
- Sztuczna inteligencja w cyberbezpieczenstwie.pdf
- Rozmiar:
- 1.58 MB
- Format:
- Adobe Portable Document Format
- Opis:
Pakiet licencji
1 - 1 z 1
Brak dostępnej miniatury
- Nazwa:
- license.txt
- Rozmiar:
- 652 B
- Format:
- Item-specific license agreed to upon submission
- Opis: