La presente tesi indaga le profonde implicazioni giuridiche, tecniche e sociali derivanti dall'applicazione dell'Intelligenza Artificiale ai sistemi di riconoscimento facciale, con un focus specifico sul fenomeno delle discriminazioni algoritmiche. Il lavoro esplora il passaggio paradigmatico da una "società dell'informazione" a una "società algoritmica", un contesto in cui i dati si sono trasformati in una vera e propria infrastruttura di governo e di decisione automatizzata. Nella prima fase della ricerca, l'elaborato ricostruisce l'evoluzione storica e normativa del diritto alla riservatezza, dalle origini dottrinali nordamericane fino all'architettura europea del GDPR, per poi smontare la presunta oggettività matematica e neutralità dei sistemi biometrici. Viene ampiamente dimostrato come gli algoritmi di deep learning apprendano da dataset storicamente sbilanciati, assimilando e propagando bias che penalizzano in modo sistematico e sproporzionato le donne e le minoranze etniche. Successivamente, l'analisi si concentra sui rischi sistemici derivanti dalla sorveglianza biometrica. Attraverso l'esame di dinamiche sociologiche come il chilling effect (l'autocensura indotta dal timore della sorveglianza) e il social sorting, la tesi illustra come queste tecnologie categorizzino attivamente gli individui in gerarchie di rischio. L'impiego di variabili proxy e l'avvento della polizia predittiva (predictive policing) segnano un pericoloso scivolamento da un diritto penale del fatto a un diritto penale della probabilità statistica. Prende così forma un "nuovo Lombroso algoritmico" che sospetta e giudica le persone non per le loro azioni accertate, ma per le previsioni statistiche associate al loro gruppo demografico. Il testo esamina poi la risposta istituzionale dell'Unione Europea, culminata nell'adozione del Regolamento (UE) 2024/1689, noto come AI Act. Pur riconoscendo il valore storico di un approccio basato sul rischio, la ricerca evidenzia le profonde crepe strutturali della normativa; in particolare, le ampie deroghe concesse per le attività di contrasto e la sicurezza nazionale rischiano di creare opache "zone franche" che svuotano di efficacia le tutele e i divieti proclamati. Infine, l'efficacia dell'attuale governance viene testata sul campo attraverso un'analisi comparata di due casi applicativi speculari: l'esperienza italiana del sistema statale "SARI Real-Time", bloccato preventivamente dal Garante Privacy (ex ante), e il caso spagnolo della catena privata "Mercadona", sanzionata dall'AEPD a sistema già pienamente operativo (ex post). Dimostrando l'insufficienza di entrambi i modelli amministrativi dinanzi a lesioni irrimediabili, il lavoro si conclude auspicando l'introduzione di strumenti giuridici più audaci, quali la distruzione algoritmica dei modelli addestrati illecitamente e l'inversione dell'onere della prova, per impedire in via definitiva che l'ottimizzazione matematica prevalga sui diritti fondamentali della persona.
Discriminazioni algoritmiche. Violazioni di diritti umani legate all’uso di sistemi di riconoscimento facciale
MIGNECO, SALVATORE
2024/2025
Abstract
La presente tesi indaga le profonde implicazioni giuridiche, tecniche e sociali derivanti dall'applicazione dell'Intelligenza Artificiale ai sistemi di riconoscimento facciale, con un focus specifico sul fenomeno delle discriminazioni algoritmiche. Il lavoro esplora il passaggio paradigmatico da una "società dell'informazione" a una "società algoritmica", un contesto in cui i dati si sono trasformati in una vera e propria infrastruttura di governo e di decisione automatizzata. Nella prima fase della ricerca, l'elaborato ricostruisce l'evoluzione storica e normativa del diritto alla riservatezza, dalle origini dottrinali nordamericane fino all'architettura europea del GDPR, per poi smontare la presunta oggettività matematica e neutralità dei sistemi biometrici. Viene ampiamente dimostrato come gli algoritmi di deep learning apprendano da dataset storicamente sbilanciati, assimilando e propagando bias che penalizzano in modo sistematico e sproporzionato le donne e le minoranze etniche. Successivamente, l'analisi si concentra sui rischi sistemici derivanti dalla sorveglianza biometrica. Attraverso l'esame di dinamiche sociologiche come il chilling effect (l'autocensura indotta dal timore della sorveglianza) e il social sorting, la tesi illustra come queste tecnologie categorizzino attivamente gli individui in gerarchie di rischio. L'impiego di variabili proxy e l'avvento della polizia predittiva (predictive policing) segnano un pericoloso scivolamento da un diritto penale del fatto a un diritto penale della probabilità statistica. Prende così forma un "nuovo Lombroso algoritmico" che sospetta e giudica le persone non per le loro azioni accertate, ma per le previsioni statistiche associate al loro gruppo demografico. Il testo esamina poi la risposta istituzionale dell'Unione Europea, culminata nell'adozione del Regolamento (UE) 2024/1689, noto come AI Act. Pur riconoscendo il valore storico di un approccio basato sul rischio, la ricerca evidenzia le profonde crepe strutturali della normativa; in particolare, le ampie deroghe concesse per le attività di contrasto e la sicurezza nazionale rischiano di creare opache "zone franche" che svuotano di efficacia le tutele e i divieti proclamati. Infine, l'efficacia dell'attuale governance viene testata sul campo attraverso un'analisi comparata di due casi applicativi speculari: l'esperienza italiana del sistema statale "SARI Real-Time", bloccato preventivamente dal Garante Privacy (ex ante), e il caso spagnolo della catena privata "Mercadona", sanzionata dall'AEPD a sistema già pienamente operativo (ex post). Dimostrando l'insufficienza di entrambi i modelli amministrativi dinanzi a lesioni irrimediabili, il lavoro si conclude auspicando l'introduzione di strumenti giuridici più audaci, quali la distruzione algoritmica dei modelli addestrati illecitamente e l'inversione dell'onere della prova, per impedire in via definitiva che l'ottimizzazione matematica prevalga sui diritti fondamentali della persona.| File | Dimensione | Formato | |
|---|---|---|---|
|
Migneco.Salvatore.pdf
Accesso riservato
Dimensione
1.08 MB
Formato
Adobe PDF
|
1.08 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14251/5141