Intelligenza Artificiale, 61 associazioni all’UE: Va rafforzata la tutela dei diritti umani

Tipologia del contenuto:Comunicati stampa//Notizie

ASGI e altre 60 associazioni hanno inviato una lettera aperta alla Commissione europea chiedendo che vengano posti dei limiti chiari nell’elaborazione di una regolamentazione comunitaria nell’utilizzo delle nuove tecnologie.

L’Unione europea sta elaborando una prima serie di regole per gestire le opportunità e le potenziali minacce dell’intelligenza artificiale.

In vista della proposta legislativa della Commissione europea sull’intelligenza artificiale, ASGI con altre associazioni della società civile di diversi Stati dell’UE ha sottoscritto una lettera aperta in cui si elenca una serie di preoccupazioni e si sollecita la Commissione europea affinché vengano affrontate in maniera inequivocabile per evitare eventuali rischi di violazione dei diritti umani fondamentali .

In particolare nella lettera si evidenza che:

1.L’uso delle tecnologie di sorveglianza biometrica per elaborare i dati raccolti indiscriminatamente o arbitrariamente dalle persone in spazi accessibili al pubblico (per esempio, il riconoscimento facciale a distanza) consente la sorveglianza di massa e può costituire una violazione di una vasta gamma di diritti fondamentali. Come sottolineato nella legislazione e nella giurisprudenza dell’UE in materia di protezione dei dati, tali usi non sono né necessari né proporzionati allo scopo perseguito .

Devono quindi essere chiaramente vietati nella legislazione sulla Intelligenza artificiale attraverso un esplicito divieto dell’uso indiscriminato o arbitrariamente mirato della biometria che può portare a una sorveglianza di massa. Ciò garantirà che le forze dell’ordine, le autorità nazionali e gli enti privati non possano abusare dell’attuale ampio margine di eccezione e di discrezionalità attualmente possibile in base ai principi giuridici generali esistenti di un divieto di trattamento biometrico.


2.I crescenti esempi di utilizzo dell’Intelligenza artificiale nel campo del controllo delle migrazioni rappresentano una crescente minaccia per i diritti fondamentali dei migranti, per il diritto dell’UE e per la dignità umana. Le politiche migratorie dell’UE sono sempre più supportate da sistemi di IA, come il riconoscimento facciale, la profilazione algoritmica e gli strumenti di previsione da utilizzare all’interno dei processi di gestione della migrazione, anche per l’espulsione forzata. Questi casi d’uso possono violare i diritti di protezione dei dati, il diritto alla privacy, il diritto alla non discriminazione e diversi principi del diritto di migrazione internazionale, compreso il diritto di chiedere asilo.

Date queste preoccupazioni e il significativo squilibrio di potere che tali dispiegamenti esacerbano e sfruttano, dovrebbe esserci un divieto o una moratoria sull’uso di tecnologie automatizzate nel controllo delle frontiere e delle migrazioni fino a quando non saranno valutate in modo indipendente per determinare la conformità con gli standard internazionali in materia di diritti umani.

3.I sistemi di Intelligenza artificiale sono utilizzati per l’assegnazione di diritti e benefici sociali ed economici al fine di verificare l’identità delle persone e calcolare i punteggi per accedere al welfare. Tutto ciò ha un forte impatto sull’accesso delle persone ai servizi pubblici vitali e dunque sul diritto fondamentale alla sicurezza sociale e all’assistenza sociale dei cittadini. Il rischio di una profilazione discriminatoria o di risultati errati si affianca ai rischi derivanti dall’elaborazione di dati biometrici sensibili. In diversi paesi come la Polonia o i Paesi Bassi l’uso di sistemi decisionali automatizzati per tracciare il profilo dei disoccupati ha dimostrato gravi implicazioni in tema di discriminazione e della protezione dei dati. Inoltre, un monitoraggio intensivo degli obiettivi di performance dei lavoratori e degli studenti e altre misure che limitano l’autonomia lavorativa, diminuiscono il benessere e limitano la privacy e i diritti fondamentali dei lavoratori e degli studenti. Lo dimostrano i casi di uso discriminatorio delle tecnologie di Intelligenza artificiale contro le persone con disabilità da parte di enti statali e privati nell’assegnazione di prestazioni sociali e nell’accesso all’istruzione.

L’imminente proposta legislativa deve limitare legalmente gli usi e gli utilizzi dell’Intelligenza artificiale che violano indebitamente l’accesso ai diritti e alle prestazioni sociali.


4.L’uso di modelli per prevedere dove, e da chi, alcuni tipi di crimini sono suscettibili di essere commessi ripetutamente, volendo prevedere una maggiore probabilità di presunta criminalità futura, come evidenziato dal Parlamento Europeo, può risultare un “grave abuso” perché l’uso di fattori apparentemente “neutrali”, come il codice postale, possono esacerbare i pregiudizi razziali e creare una falsa obiettività ai modelli di profilazione razziale. È stato dimostrato che un certo numero di sistemi di polizia predittiva includono in modo sproporzionato persone appartenenti a determinate comunità, in totale disaccordo con i tassi di criminalità effettivi. I sistemi di polizia predittiva minano la presunzione di innocenza, trattando le persone come individualmente sospette sulla base di inferenze su un gruppo più ampio.

La Commissione Europea deve proibire legalmente l’impiego di sistemi di polizia predittiva al fine di proteggere i diritti fondamentali.

5.L’uso di strumenti di valutazione del rischio nel sistema di giustizia penale e nel contesto preprocessuale, come gli algoritmi per tracciare un profilo degli individui all’interno dei processi, rappresenta una grave minaccia per i diritti fondamentali. Tali strumenti basano le loro valutazioni su una vasta raccolta di dati personali non collegati alla presunta cattiva condotta degli imputati. Questa raccolta di dati personali al fine di prevedere il rischio di recidiva non può essere percepita come necessaria né proporzionata allo scopo, in particolare considerando le implicazioni per il diritto al rispetto della vita privata e la presunzione di innocenza. Inoltre, prove sostanziali hanno dimostrato che l’introduzione di tali sistemi nei sistemi di giustizia penale in Europa e altrove ha portato a risultati ingiusti e discriminatori

I limiti legali devono essere imposti ai sistemi di valutazione del rischio di Intelligenza artificiale nel contesto della giustizia penale.

Come associazioni chiediamo limiti normativi nell’utilizzo di intelligenze artificiali che limitano indebitamente i diritti umani ed in particolare raccomandiamo:

  • Un divieto esplicito dell’uso indiscriminato o arbitrariamente mirato della biometria in spazi pubblici o accessibili al pubblico, che può portare a una sorveglianza di massa;
  • Restrizioni legali o limiti legislativi sugli usi che violano i diritti fondamentali, compresi, ma non solo, gli usi dell’AI alla frontiera, i sistemi che limitano l’accesso ai diritti e ai benefici sociali e gli strumenti di valutazione del rischio nel contesto della giustizia penale;
  • L’inclusione esplicita delle comunità emarginate e interessate nello sviluppo della legislazione e delle politiche dell’UE in materia di IA.


La lettera aperta delle associazioni alla Commissione europea


Primi firmatari

European Digital Rights (EDRi)

Access Now 

Bits of Freedom 

Chaos Computer Club 

D3 – Defesa dos Direitos Digitais 

Electronic Privacy Information Center (EPIC) 

Fitug 

Hermes Center 

Homo Digitalis 

IT-Pol Denmark 

Iuridicum Remedium 

Metamorphosis Foundation 

Panoptykon Foundation 

Privacy International 

Statewatch 

Hanno aderito

AI Now Institute, NYU 

Algorithm Watch 

Amnesty International 

App Drivers and Couriers Union (ADCU) 

Associazione Certi Diritti 

Associazione Luca Coscioni  

Associazione per gli Studi Giuridici sull’Immigrazione 

Big Brother Watch 

Center for Intersectional Justice (CIJ) 

Democratic Society 

Digitale Freiheit 

Dutch Section – International Commission of Jurists (NJCM) 

Each One Teach One (EOTO) e.V. 

Eumans 

European Disability Forum 

European Evangelical Alliance (EEA) 

European Network Against Racism (ENAR) 

European Network On Religion and Belief (ENORB) 

European Roma Grassroots Organizations (ERGO) Network  

European Youth Forum 

Fair Trials 

Federation of Humanitarian Technologists 

Fundación Secretariado Gitano  

Ghett’up 

Greek Forum of Migrants

Human Rights Watch 

ILGA-Europe 

info.nodes 

International Committee on the Rights of Sex Workers in Europe (ICRSE) International Federation for Human Rights (FIDH) 

International Decade for People of African Descent, Spain Kif Kif 

Liberty 

Ligue des Droits Humains 

Minderhedenforum 

Montreal AI Ethics Institute 

Open Society European Policy Institute 

Platform for International Cooperation on Undocumented Migrants (PICUM) Privacy Network 

Ranking Digital Rights 

Refugee Law Lab, York University 

Save Space e.V. 

Simply Secure 

Stop Ethnic Profiling Platform Belgium 

StraLi – for Strategic Litigation 

UNI europa – European Services Workers Union 

University College Dublin Centre for Digital Policy


Foto da Pexels

Tipologia del contenuto:Comunicati stampa//Notizie