La crescente diffusione dei sistemi di intelligenza artificiale nei processi decisionali ha reso necessario un intervento normativo volto a garantire la tutela dei diritti fondamentali, la sicurezza e l’affidabilità delle tecnologie impiegate. In questo contesto si inserisce l’AI Act, primo regolamento europeo organico dedicato alla disciplina dell’intelligenza artificiale, che introduce un approccio basato sul rischio e obblighi differenziati per sviluppatori e utilizzatori dei sistemi di IA. La presente tesi analizza l’AI Act nel suo rapporto con la protezione dei dati personali e la cybersecurity, evidenziandone il coordinamento con il GDPR e con le normative europee già vigenti in materia di sicurezza informatica. Particolare attenzione è dedicata ai sistemi di IA utilizzati nel settore del recruiting digitale, classificati come ad alto rischio per il loro impatto sui diritti dei candidati e sul principio di non discriminazione. Attraverso l’analisi dei requisiti normativi, dei meccanismi di governance e delle pratiche di risk management, il lavoro esamina le principali criticità e le opportunità per i fornitori di software di selezione del personale, mettendo in luce il ruolo centrale della trasparenza, della supervisione umana e della gestione dei bias algoritmici. La tesi si propone infine di offrire una lettura sistematica degli obblighi introdotti dall’AI Act e di fornire spunti operativi per un’adozione responsabile e conforme dell’intelligenza artificiale nel recruiting digitale.

L’AI Act tra Privacy e Cybersecurity: analisi del Regolamento Europeo e impatti sui fornitori di software per il recruiting digitale

AMICO, FRANCESCO
2024/2025

Abstract

La crescente diffusione dei sistemi di intelligenza artificiale nei processi decisionali ha reso necessario un intervento normativo volto a garantire la tutela dei diritti fondamentali, la sicurezza e l’affidabilità delle tecnologie impiegate. In questo contesto si inserisce l’AI Act, primo regolamento europeo organico dedicato alla disciplina dell’intelligenza artificiale, che introduce un approccio basato sul rischio e obblighi differenziati per sviluppatori e utilizzatori dei sistemi di IA. La presente tesi analizza l’AI Act nel suo rapporto con la protezione dei dati personali e la cybersecurity, evidenziandone il coordinamento con il GDPR e con le normative europee già vigenti in materia di sicurezza informatica. Particolare attenzione è dedicata ai sistemi di IA utilizzati nel settore del recruiting digitale, classificati come ad alto rischio per il loro impatto sui diritti dei candidati e sul principio di non discriminazione. Attraverso l’analisi dei requisiti normativi, dei meccanismi di governance e delle pratiche di risk management, il lavoro esamina le principali criticità e le opportunità per i fornitori di software di selezione del personale, mettendo in luce il ruolo centrale della trasparenza, della supervisione umana e della gestione dei bias algoritmici. La tesi si propone infine di offrire una lettura sistematica degli obblighi introdotti dall’AI Act e di fornire spunti operativi per un’adozione responsabile e conforme dell’intelligenza artificiale nel recruiting digitale.
2024
AI Act
Recruiting digitale
Bias
Rischio
Impatto
File in questo prodotto:
File Dimensione Formato  
Amico.Francesco.pdf

Accesso riservato

Dimensione 788.45 kB
Formato Adobe PDF
788.45 kB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14251/4629