La crescente diffusione dei sistemi di intelligenza artificiale nei processi decisionali ha reso necessario un intervento normativo volto a garantire la tutela dei diritti fondamentali, la sicurezza e l’affidabilità delle tecnologie impiegate. In questo contesto si inserisce l’AI Act, primo regolamento europeo organico dedicato alla disciplina dell’intelligenza artificiale, che introduce un approccio basato sul rischio e obblighi differenziati per sviluppatori e utilizzatori dei sistemi di IA. La presente tesi analizza l’AI Act nel suo rapporto con la protezione dei dati personali e la cybersecurity, evidenziandone il coordinamento con il GDPR e con le normative europee già vigenti in materia di sicurezza informatica. Particolare attenzione è dedicata ai sistemi di IA utilizzati nel settore del recruiting digitale, classificati come ad alto rischio per il loro impatto sui diritti dei candidati e sul principio di non discriminazione. Attraverso l’analisi dei requisiti normativi, dei meccanismi di governance e delle pratiche di risk management, il lavoro esamina le principali criticità e le opportunità per i fornitori di software di selezione del personale, mettendo in luce il ruolo centrale della trasparenza, della supervisione umana e della gestione dei bias algoritmici. La tesi si propone infine di offrire una lettura sistematica degli obblighi introdotti dall’AI Act e di fornire spunti operativi per un’adozione responsabile e conforme dell’intelligenza artificiale nel recruiting digitale.
L’AI Act tra Privacy e Cybersecurity: analisi del Regolamento Europeo e impatti sui fornitori di software per il recruiting digitale
AMICO, FRANCESCO
2024/2025
Abstract
La crescente diffusione dei sistemi di intelligenza artificiale nei processi decisionali ha reso necessario un intervento normativo volto a garantire la tutela dei diritti fondamentali, la sicurezza e l’affidabilità delle tecnologie impiegate. In questo contesto si inserisce l’AI Act, primo regolamento europeo organico dedicato alla disciplina dell’intelligenza artificiale, che introduce un approccio basato sul rischio e obblighi differenziati per sviluppatori e utilizzatori dei sistemi di IA. La presente tesi analizza l’AI Act nel suo rapporto con la protezione dei dati personali e la cybersecurity, evidenziandone il coordinamento con il GDPR e con le normative europee già vigenti in materia di sicurezza informatica. Particolare attenzione è dedicata ai sistemi di IA utilizzati nel settore del recruiting digitale, classificati come ad alto rischio per il loro impatto sui diritti dei candidati e sul principio di non discriminazione. Attraverso l’analisi dei requisiti normativi, dei meccanismi di governance e delle pratiche di risk management, il lavoro esamina le principali criticità e le opportunità per i fornitori di software di selezione del personale, mettendo in luce il ruolo centrale della trasparenza, della supervisione umana e della gestione dei bias algoritmici. La tesi si propone infine di offrire una lettura sistematica degli obblighi introdotti dall’AI Act e di fornire spunti operativi per un’adozione responsabile e conforme dell’intelligenza artificiale nel recruiting digitale.| File | Dimensione | Formato | |
|---|---|---|---|
|
Amico.Francesco.pdf
Accesso riservato
Dimensione
788.45 kB
Formato
Adobe PDF
|
788.45 kB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14251/4629