©Almost Studio
Tempo di lettura stimato: 5'
Amnesty International ha lanciato l’Algorithmic Accountability toolkit, una vera e propria “cassetta degli attrezzi” per contrastare il sempre più massiccio uso dell’intelligenza artificiale e dei sistemi decisionali automatizzati e il loro impatto sulla vita quotidiana, soprattutto su quella delle persone attiviste e che difendono i diritti umani.
Lo strumento si basa sulle ricerche e sulle campagne di Amnesty International e sul lavoro svolto dai mezzi d’informazione e dai gruppi della società civile in Danimarca, Svezia, Serbia, Francia, India, Regno Unito, Territorio palestinese occupato, Stati Uniti d’America e Paesi Bassi. Fornisce una guida per indagare, scoprire e chiamare a rispondere dei danni provocati da sistemi basati sugli algoritmi che influenzano sempre più la vita delle persone, soprattutto nei settori pubblici della protezione sociale, della gestione dell’ordine pubblico, delle cure mediche e dell’istruzione.
A prescindere dalla giurisdizione territoriale in cui tali tecnologie vengono sviluppate, il risultato non è quello di “rendere più efficienti” o “migliorare” le società – come molti governi e aziende sostengono – quanto quello di rafforzare pregiudizi, esclusione e altre violazioni dei diritti umani.
“La nostra ‘cassetta degli attrezzi’ servirà a chiunque voglia approfondire o contrastare l’uso degli algoritmi e dell’intelligenza artificiale nel settore pubblico: organizzazioni della società civile, giornaliste e giornalisti, singole persone e comunità. È adattabile e versatile rispetto a molteplici ambienti e contesti”, ha dichiarato Damini Satija, direttrice dei programmi di Amnesty Tech.
“Usare il nostro potere collettivo per indagare sui dannosi sistemi basati sull’intelligenza artificiale e chiamarli a rendere conto è cruciale per contrastare prassi abusive di stati e aziende, in un momento in cui gli investimenti nell’intelligenza artificiale sono enormi. Questi sistemi possono favorire di gran lunga la sorveglianza di massa, compromettere i nostri diritti alla protezione sociale, limitare la nostra libertà di protesta pacifica e perpetuare esclusione, discriminazione e pregiudizi all’interno delle società”, ha aggiunto Satija.
La “cassetta degli attrezzi” introduce un approccio multi-fronte basato su quanto appreso da Amnesty International negli ultimi tre anni di indagini e grazie alla collaborazione con importanti partner. Questo approccio non solo fornisce strumenti e template pratici per fare ricerca su sistemi per loro natura opachi e sulle violazioni dei diritti umani che ne derivano, ma descrive una serie di tattiche utilizzabili per cambiare le cose e favorire l’assunzione di responsabilità, tra le quali campagne, comunicazione strategica, sensibilizzazione e contenzioso giudiziario.
Uno dei molti casi di studio di cui lo strumento si nutre è la ricerca di Amnesty International sul sistema di protezione statale in Danimarca: il sistema alimentato dall’intelligenza artificiale ha dato luogo alla sorveglianza di massa e al rischio di discriminazione nei confronti delle persone con disabilità, a basso reddito, migranti, rifugiate e razzializzate per prendere di mira determinate persone nell’ambito delle indagini sulle frodi nel campo dall’assistenza sociale.
La “cassetta degli attrezzi” colloca il diritto internazionale dei diritti umani come bussola del lavoro per chiamare a rispondere i sistemi basati sugli algoritmi: ciò è particolarmente necessario considerando la lacuna nella narrazione sull’intelligenza artificiale “etica e responsabile” e nei metodi di audit.
“Siamo di fronte a una vera e propria urgenza: si parla dei presunti benefici della sperimentazione e dell’uso dell’intelligenza artificiale nel settore pubblico senza la minima verifica. Gli stati sostengono enormi investimenti nello sviluppo e nell’infrastruttura dell’intelligenza artificiale, dando via libera alle multinazionali del settore di perseguire i loro lucrosi interessi a prescindere dall’impatto sui diritti umani”, ha sottolineato Satija.
“Grazie a questo strumento, vogliamo democratizzare la conoscenza e consentire alle organizzazioni della società civile, alle giornaliste e ai giornalisti e alle singole persone colpite di scoprire come funzionano questi sistemi e le industrie che li producono, con l’obiettivo di chiamare queste ultime e gli stati a rispondere e di porre fine alle violazioni dei diritti umani che ne derivano”, ha concluso Satija.