ASGI e altre 60 associazioni hanno inviato una lettera aperta alla Commissione europea chiedendo che vengano posti dei limiti chiari nell’elaborazione di una regolamentazione comunitaria nell’utilizzo delle nuove tecnologie.
L’Unione europea sta elaborando una prima serie di regole per gestire le opportunità e le potenziali minacce dell’intelligenza artificiale.
In vista della proposta legislativa della Commissione europea sull’intelligenza artificiale, ASGI con altre associazioni della società civile di diversi Stati dell’UE ha sottoscritto una lettera aperta in cui si elenca una serie di preoccupazioni e si sollecita la Commissione europea affinché vengano affrontate in maniera inequivocabile per evitare eventuali rischi di violazione dei diritti umani fondamentali .
In particolare nella lettera si evidenza che:
1.L’uso delle tecnologie di sorveglianza biometrica per elaborare i dati raccolti indiscriminatamente o arbitrariamente dalle persone in spazi accessibili al pubblico (per esempio, il riconoscimento facciale a distanza) consente la sorveglianza di massa e può costituire una violazione di una vasta gamma di diritti fondamentali. Come sottolineato nella legislazione e nella giurisprudenza dell’UE in materia di protezione dei dati, tali usi non sono né necessari né proporzionati allo scopo perseguito .
Devono quindi essere chiaramente vietati nella legislazione sulla Intelligenza artificiale attraverso un esplicito divieto dell’uso indiscriminato o arbitrariamente mirato della biometria che può portare a una sorveglianza di massa. Ciò garantirà che le forze dell’ordine, le autorità nazionali e gli enti privati non possano abusare dell’attuale ampio margine di eccezione e di discrezionalità attualmente possibile in base ai principi giuridici generali esistenti di un divieto di trattamento biometrico.
2.I crescenti esempi di utilizzo dell’Intelligenza artificiale nel campo del controllo delle migrazioni rappresentano una crescente minaccia per i diritti fondamentali dei migranti, per il diritto dell’UE e per la dignità umana. Le politiche migratorie dell’UE sono sempre più supportate da sistemi di IA, come il riconoscimento facciale, la profilazione algoritmica e gli strumenti di previsione da utilizzare all’interno dei processi di gestione della migrazione, anche per l’espulsione forzata. Questi casi d’uso possono violare i diritti di protezione dei dati, il diritto alla privacy, il diritto alla non discriminazione e diversi principi del diritto di migrazione internazionale, compreso il diritto di chiedere asilo.
Date queste preoccupazioni e il significativo squilibrio di potere che tali dispiegamenti esacerbano e sfruttano, dovrebbe esserci un divieto o una moratoria sull’uso di tecnologie automatizzate nel controllo delle frontiere e delle migrazioni fino a quando non saranno valutate in modo indipendente per determinare la conformità con gli standard internazionali in materia di diritti umani.
3.I sistemi di Intelligenza artificiale sono utilizzati per l’assegnazione di diritti e benefici sociali ed economici al fine di verificare l’identità delle persone e calcolare i punteggi per accedere al welfare. Tutto ciò ha un forte impatto sull’accesso delle persone ai servizi pubblici vitali e dunque sul diritto fondamentale alla sicurezza sociale e all’assistenza sociale dei cittadini. Il rischio di una profilazione discriminatoria o di risultati errati si affianca ai rischi derivanti dall’elaborazione di dati biometrici sensibili. In diversi paesi come la Polonia o i Paesi Bassi l’uso di sistemi decisionali automatizzati per tracciare il profilo dei disoccupati ha dimostrato gravi implicazioni in tema di discriminazione e della protezione dei dati. Inoltre, un monitoraggio intensivo degli obiettivi di performance dei lavoratori e degli studenti e altre misure che limitano l’autonomia lavorativa, diminuiscono il benessere e limitano la privacy e i diritti fondamentali dei lavoratori e degli studenti. Lo dimostrano i casi di uso discriminatorio delle tecnologie di Intelligenza artificiale contro le persone con disabilità da parte di enti statali e privati nell’assegnazione di prestazioni sociali e nell’accesso all’istruzione.
L’imminente proposta legislativa deve limitare legalmente gli usi e gli utilizzi dell’Intelligenza artificiale che violano indebitamente l’accesso ai diritti e alle prestazioni sociali.
4.L’uso di modelli per prevedere dove, e da chi, alcuni tipi di crimini sono suscettibili di essere commessi ripetutamente, volendo prevedere una maggiore probabilità di presunta criminalità futura, come evidenziato dal Parlamento Europeo, può risultare un “grave abuso” perché l’uso di fattori apparentemente “neutrali”, come il codice postale, possono esacerbare i pregiudizi razziali e creare una falsa obiettività ai modelli di profilazione razziale. È stato dimostrato che un certo numero di sistemi di polizia predittiva includono in modo sproporzionato persone appartenenti a determinate comunità, in totale disaccordo con i tassi di criminalità effettivi. I sistemi di polizia predittiva minano la presunzione di innocenza, trattando le persone come individualmente sospette sulla base di inferenze su un gruppo più ampio.
La Commissione Europea deve proibire legalmente l’impiego di sistemi di polizia predittiva al fine di proteggere i diritti fondamentali.
5.L’uso di strumenti di valutazione del rischio nel sistema di giustizia penale e nel contesto preprocessuale, come gli algoritmi per tracciare un profilo degli individui all’interno dei processi, rappresenta una grave minaccia per i diritti fondamentali. Tali strumenti basano le loro valutazioni su una vasta raccolta di dati personali non collegati alla presunta cattiva condotta degli imputati. Questa raccolta di dati personali al fine di prevedere il rischio di recidiva non può essere percepita come necessaria né proporzionata allo scopo, in particolare considerando le implicazioni per il diritto al rispetto della vita privata e la presunzione di innocenza. Inoltre, prove sostanziali hanno dimostrato che l’introduzione di tali sistemi nei sistemi di giustizia penale in Europa e altrove ha portato a risultati ingiusti e discriminatori
I limiti legali devono essere imposti ai sistemi di valutazione del rischio di Intelligenza artificiale nel contesto della giustizia penale.
Come associazioni chiediamo limiti normativi nell’utilizzo di intelligenze artificiali che limitano indebitamente i diritti umani ed in particolare raccomandiamo:
- Un divieto esplicito dell’uso indiscriminato o arbitrariamente mirato della biometria in spazi pubblici o accessibili al pubblico, che può portare a una sorveglianza di massa;
- Restrizioni legali o limiti legislativi sugli usi che violano i diritti fondamentali, compresi, ma non solo, gli usi dell’AI alla frontiera, i sistemi che limitano l’accesso ai diritti e ai benefici sociali e gli strumenti di valutazione del rischio nel contesto della giustizia penale;
- L’inclusione esplicita delle comunità emarginate e interessate nello sviluppo della legislazione e delle politiche dell’UE in materia di IA.
La lettera aperta delle associazioni alla Commissione europea
Primi firmatari
European Digital Rights (EDRi)
Access Now
Bits of Freedom
Chaos Computer Club
D3 – Defesa dos Direitos Digitais
Electronic Privacy Information Center (EPIC)
Fitug
Hermes Center
Homo Digitalis
IT-Pol Denmark
Iuridicum Remedium
Metamorphosis Foundation
Panoptykon Foundation
Privacy International
Statewatch
Hanno aderito
AI Now Institute, NYU
Algorithm Watch
Amnesty International
App Drivers and Couriers Union (ADCU)
Associazione Certi Diritti
Associazione Luca Coscioni
Associazione per gli Studi Giuridici sull’Immigrazione
Big Brother Watch
Center for Intersectional Justice (CIJ)
Democratic Society
Digitale Freiheit
Dutch Section – International Commission of Jurists (NJCM)
Each One Teach One (EOTO) e.V.
Eumans
European Disability Forum
European Evangelical Alliance (EEA)
European Network Against Racism (ENAR)
European Network On Religion and Belief (ENORB)
European Roma Grassroots Organizations (ERGO) Network
European Youth Forum
Fair Trials
Federation of Humanitarian Technologists
Fundación Secretariado Gitano
Ghett’up
Greek Forum of Migrants
Human Rights Watch
ILGA-Europe
info.nodes
International Committee on the Rights of Sex Workers in Europe (ICRSE) International Federation for Human Rights (FIDH)
International Decade for People of African Descent, Spain Kif Kif
Liberty
Ligue des Droits Humains
Minderhedenforum
Montreal AI Ethics Institute
Open Society European Policy Institute
Platform for International Cooperation on Undocumented Migrants (PICUM) Privacy Network
Ranking Digital Rights
Refugee Law Lab, York University
Save Space e.V.
Simply Secure
Stop Ethnic Profiling Platform Belgium
StraLi – for Strategic Litigation
UNI europa – European Services Workers Union
University College Dublin Centre for Digital Policy
Foto da Pexels