L’uso delle tecnologie nei sistemi di protezione sociale minaccia i diritti umani

6 Marzo 2024

Simina Popescu

Tempo di lettura stimato: 5'

Amnesty International ha pubblicato oggi un nuovo rapporto sulle tecnologie digitali, tra cui l’intelligenza artificiale, l’automazione e i processi decisionali algoritmici, che stanno esacerbando le disuguaglianze nei sistemi di protezione sociale a livello globale.

“Dalla Serbia, all’India, ai Paesi Bassi, queste tecnologie vengono accolte dai governi come sistemi all’avanguardia per migliorare la distribuzione delle risorse e i sistemi amministrativi, identificare eventuali frodi e potenziare la sicurezza. Tuttavia, Amnesty International ha dimostrato che la digitalizzazione incontrollata dei sistemi di protezione sociale comporta numerosi rischi per i diritti umani e aggrava le disuguaglianze”, ha dichiarato Imogen Richmond-Bishop, ricercatrice su Tecnologia e diritti economici sociali e culturali di Amnesty Tech.

“Alla luce delle molteplici crisi globali causate dai conflitti, dall’emergenza climatica e, tra le altre, dalla pandemia da Covid-19, sistemi di protezione sociale solidi sono più importanti che mai per tutelare singoli individui e intere comunità dall’insicurezza economica”, ha proseguito Imogen Richmond-Bishop.

Il nuovo rapporto, intitolato “Protezione sociale nell’era digitale”, sottolinea i rischi per i diritti umani derivanti dall’uso incontrollato delle tecnologie digitali.

 

LEGGI IL RAPPORTO

 

Il registro della cosiddetta Social Card in Serbia rappresenta un esempio di un sistema decisionale semi-automatico utilizzato in un contesto di sicurezza sociale già compromesso, con conseguenze dirette sulle comunità marginalizzate, come indicato in un rapporto del 2023 di Amnesty International. La tecnologia, utilizzata senza adeguate salvaguardie o protezioni dei diritti umani, ha influito in modo significativo sulle comunità rom e sulle persone con disabilità.

Tale sistema ha ampliato le discriminazioni esistenti e ha creato ulteriori ostacoli all’accesso al diritto alla sicurezza sociale. Molte delle persone intervistate da Amnesty International sono state private del loro già esiguo sostegno finanziario, il che ha comportato l’interruzione del loro accesso a beni e servizi essenziali, come cibo e medicine, a causa di alcune falle nel registro della Social Card.

In India, il sistema di identificazione biometrica Aadhaar, che fornisce un numero di identificazione unico a cittadini e residenti, compresi i bambini, viene utilizzato come metodo di verifica e autenticazione delle informazioni di identità in vari servizi pubblici, tra cui prestazioni di sicurezza sociale e razioni alimentari. Questo avviene attraverso metodi completamente digitalizzati. Giornalisti e ricercatori della società civile, tra gli altri, hanno documentato come tutto ciò abbia portato all’esclusione di molte persone dalla protezione sociale fondamentale.

“È essenziale che prima di introdurre la tecnologia nei sistemi di protezione sociale, gli stati considerino attentamente e valutino il suo utilizzo in relazione ai potenziali rischi per i diritti umani. L’introduzione di qualsiasi tecnologia deve essere accompagnata da valutazioni indipendenti e solide sull’impatto sui diritti umani durante l’intero ciclo di vita del sistema, dalla progettazione alla messa in opera, e dall’adozione di efficaci misure di mitigazione”, ha aggiunto Richmond-Bishop.

“Le comunità che dipendono fortemente da tali sistemi di protezione sociale devono essere necessariamente coinvolte e qualsiasi modifica deve essere loro comunicata in modo chiaro e accessibile. È imperativo che, nel caso in cui emerga che uno di questi sistemi potrebbe potenzialmente violare i diritti umani senza riuscire a prevenire danni, ne venga immediatamente interrotto l’utilizzo”, ha concluso Richmond-Bishop.

Ulteriori informazioni

Nel 2023, una ricerca di Amnesty International, intitolata “Intrappolati dall’automazione: povertà e discriminazione nel sistema di welfare in Serbia”, ha documentato come molte persone, in particolare delle comunità rom e persone con disabilità, fossero impossibilitate a pagare le bollette, procurarsi del cibo e faticassero ad ottenere assistenza, dopo essere state escluse dal sostegno sociale a seguito dell’introduzione del registro della Social Card.

Nel 2021, Amnesty International ha documentato come un sistema algoritmico utilizzato dall’Agenzia delle entrate olandese avesse utilizzato la profilazione razziale sui beneficiari degli assegni familiari. Lo strumento avrebbe dovuto verificare se le richieste di prestazioni fossero legittime o fraudolente, ma il sistema aveva erroneamente penalizzato migliaia di genitori provenienti da famiglie a basso reddito e di origine migratoria, trascinandoli in indebitamenti ingenti e povertà.