Il panorama della sicurezza informatica è caratterizzato da un'evoluzione continua: minacce sempre più sofisticate e attori malintenzionati che sviluppano tattiche mirate rendono la protezione dei sistemi informatici una sfida dinamica e critica. Questa tendenza evidenzia quanto sia urgente potenziare le capacità di rilevamento e risposta dei sistemi di sicurezza. I Network Intrusion Detection Systems (NIDS) svolgono un ruolo centrale nelle strategie difensive, poiché monitorano il traffico, estraggono caratteristiche rilevanti e determinano la presenza di attività malevoli. Tradizionalmente, i NIDS si sono basati su metodi a regole e firme: approcci efficaci contro minacce note e riproducibili, ma limitati quando si tratta di attacchi zero-day o varianti evasive. Per questo motivo, negli ultimi anni l'IA è stata sempre più adottata per migliorare l'efficacia dei sistemi di rilevamento, permettendo ai modelli di apprendere dai dati, generalizzare e ridurre il tasso di falsi positivi. L'integrazione dell'IA nei NIDS porta con sé vantaggi significativi, ma anche nuove vulnerabilità. Gli attaccanti hanno cominciato a sfruttare tecniche che prendono di mira direttamente i modelli stessi: tra queste, gli adversarial attack. Con perturbazioni spesso impercettibili o modifiche strategiche ai sample malevoli, un avversario può indurre il modello a classificare male un'istanza e bypassare i meccanismi di allerta. Si è visto che i NIDS basati su algoritmi classici di ML (come RF o SVM) soffrono di attacchi alle feature, cioé modifiche ai byte mandati, durata e pacchetti totali di una connessione. In questo contesto, le Graph Neural Networks (GNN) sono emerse come soluzione potente per modellare le relazioni e le strutture presenti nei dati di rete. Rappresentando entità di rete (IP:Porta) e le loro interazioni come grafi, le GNN possono catturare dipendenze topologiche e contestuali rendendole più robuste verso adversalial attack su feature. Tuttavia, la stessa struttura che rende le GNN efficaci le rende anche vulnerabili ad attacchi che sfruttano la topologia o la connettività. Questi tipi di attacchi, detti strutturali, riescono in grandi quantità ad abbassare drasticamente il rilevamento di minacce andando a creare collegamenti che partono da nodi compromessi ad altri nella stessa rete, e la comprensione di tali vulnerabilità richiede studi mirati e ambienti sperimentali controllati. L'obiettivo principale di questa tesi è la costruzione di un ambiente sperimentale in cui un agente di Deep Reinforcement Learning (DRL) possa essere addestrato a generare attacchi adversarial strutturali contro NIDS basati su GNN, in modo da valutare la robustezza di tali modelli. La scelta del DRL come strumento di generazione deriva dal fatto che permette di modellare un avversario capace di apprendere strategie sequenziali, ottimizzando azioni che hanno effetto sulla struttura del traffico di rete. In questa tesi, gli attacchi basati su DRL sono stati sperimentati su due dataset ampiamente diffusi (CTU13 e TON_IOT) in letteratura e con tre agenti differenti (DDQN, SARSA e CEM) si sono tre tipi di attacchi differenti. I risultati dimostrano poca efficacia nella maggior parte degli attacchi con nodi target. Ma si dimostra anche che un attacco ha maggiore impatto quando vengono cambiati per step gli attaccanti e che la detection varia a seconda di questi, suggerendo nuove strategie in successive ricerche dove il target dell'agente DRL non è il nodo bersagliato ma gli attaccanti.

Deep Reinforcement Learning per adversarial attack strutturali contro Graph Neural Network in Network Intrusion Detection System

MALFERRARI, FRANCESCO
2024/2025

Abstract

Il panorama della sicurezza informatica è caratterizzato da un'evoluzione continua: minacce sempre più sofisticate e attori malintenzionati che sviluppano tattiche mirate rendono la protezione dei sistemi informatici una sfida dinamica e critica. Questa tendenza evidenzia quanto sia urgente potenziare le capacità di rilevamento e risposta dei sistemi di sicurezza. I Network Intrusion Detection Systems (NIDS) svolgono un ruolo centrale nelle strategie difensive, poiché monitorano il traffico, estraggono caratteristiche rilevanti e determinano la presenza di attività malevoli. Tradizionalmente, i NIDS si sono basati su metodi a regole e firme: approcci efficaci contro minacce note e riproducibili, ma limitati quando si tratta di attacchi zero-day o varianti evasive. Per questo motivo, negli ultimi anni l'IA è stata sempre più adottata per migliorare l'efficacia dei sistemi di rilevamento, permettendo ai modelli di apprendere dai dati, generalizzare e ridurre il tasso di falsi positivi. L'integrazione dell'IA nei NIDS porta con sé vantaggi significativi, ma anche nuove vulnerabilità. Gli attaccanti hanno cominciato a sfruttare tecniche che prendono di mira direttamente i modelli stessi: tra queste, gli adversarial attack. Con perturbazioni spesso impercettibili o modifiche strategiche ai sample malevoli, un avversario può indurre il modello a classificare male un'istanza e bypassare i meccanismi di allerta. Si è visto che i NIDS basati su algoritmi classici di ML (come RF o SVM) soffrono di attacchi alle feature, cioé modifiche ai byte mandati, durata e pacchetti totali di una connessione. In questo contesto, le Graph Neural Networks (GNN) sono emerse come soluzione potente per modellare le relazioni e le strutture presenti nei dati di rete. Rappresentando entità di rete (IP:Porta) e le loro interazioni come grafi, le GNN possono catturare dipendenze topologiche e contestuali rendendole più robuste verso adversalial attack su feature. Tuttavia, la stessa struttura che rende le GNN efficaci le rende anche vulnerabili ad attacchi che sfruttano la topologia o la connettività. Questi tipi di attacchi, detti strutturali, riescono in grandi quantità ad abbassare drasticamente il rilevamento di minacce andando a creare collegamenti che partono da nodi compromessi ad altri nella stessa rete, e la comprensione di tali vulnerabilità richiede studi mirati e ambienti sperimentali controllati. L'obiettivo principale di questa tesi è la costruzione di un ambiente sperimentale in cui un agente di Deep Reinforcement Learning (DRL) possa essere addestrato a generare attacchi adversarial strutturali contro NIDS basati su GNN, in modo da valutare la robustezza di tali modelli. La scelta del DRL come strumento di generazione deriva dal fatto che permette di modellare un avversario capace di apprendere strategie sequenziali, ottimizzando azioni che hanno effetto sulla struttura del traffico di rete. In questa tesi, gli attacchi basati su DRL sono stati sperimentati su due dataset ampiamente diffusi (CTU13 e TON_IOT) in letteratura e con tre agenti differenti (DDQN, SARSA e CEM) si sono tre tipi di attacchi differenti. I risultati dimostrano poca efficacia nella maggior parte degli attacchi con nodi target. Ma si dimostra anche che un attacco ha maggiore impatto quando vengono cambiati per step gli attaccanti e che la detection varia a seconda di questi, suggerendo nuove strategie in successive ricerche dove il target dell'agente DRL non è il nodo bersagliato ma gli attaccanti.
2024
DRL
GNN
NIDS
Netflow
Adversalial_attack
File in questo prodotto:
File Dimensione Formato  
Malferrari.Francesco.pdf

embargo fino al 13/06/2027

Dimensione 1.13 MB
Formato Adobe PDF
1.13 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14251/4563