Regno Unito, la piattaforma X terreno fertile per narrazioni razziste

6 Agosto 2025

© Jaap Arriens/NurPhoto

Tempo di lettura stimato: 8'

Il 29 luglio 2024, nella città britannica di Southport, tre bambine di meno di dieci anni – Alice Dasilva Aguiar, Bebe King ed EIsie Dot Stacombe – furono uccise dal 17enne Axel Rudakubana, in seguito condannato a oltre 50 anni di carcere. Nell’attacco rimasero ferite altre dieci persone.

Nel giro di poche ore, sulla piattaforma X, iniziarono a diffondersi informazioni non corrette se non proprio false sull’identità, la religione e lo status migratorio dell’assassino. Il sistema di contenuti raccomandati (o algoritmo di classificazione dei contenuti), che determina la pagina “Per te”, privilegia sistematicamente i post che suscitano indignazione, provocano scambi accesi, reazioni ed engagement, in assenza di misure idonee a prevenire o mitigare il danno.

A questa conclusione è giunta una ricerca tecnica di Amnesty International, pubblicata oggi e basata sull’analisi dei codici open-source di X, i software della piattaforma pubblicamente disponibili a partire dal marzo 2023.

L’algoritmo che raccomanda contenuti è congegnato in modo da favorire l’interazione aggressiva degli utenti a scapito della loro tutela.  A prescindere dal danno che possono arrecare, notizie false possono essere rese prioritarie e diffondersi in modo più rapido rispetto a informazioni verificate. Il sistema di valutazione dei contenuti, che decide quali post devono essere promossi, dà priorità alle “conversazioni”, senza tener conto del loro argomento. L’algoritmo favorisce l’interazione senza che vi sia alcun meccanismo di valutazione dei potenziali danni, almeno fino a quando un certo numero di utenti segnala un contenuto. In questo modo, X è stata terreno fertile per le narrazioni razziste e incendiarie successive all’attacco di Southport.

Un’ulteriore analisi del sistema ha rivelato un meccanismo sbilanciato di amplificazione in favore degli utenti “Premium” (in precedenza, con “spunta blu”) verificati, i cui post sono automaticamente promossi rispetto a quelli degli utenti ordinari. Prima ancora che le autorità diffondessero dichiarazioni ufficiali su quanto accaduto a Southport, sulla piattaforma hanno iniziato a circolare informazioni false e narrazioni islamofobe: hashtag quali #Stabbing (#Accoltellamento) e #EnoughisEnough (#Quandoètroppoètroppo) sono stati usati per propagare false affermazioni secondo le quali l’aggressore era un musulmano e/o un richiedente asilo.

Poco dopo l’accaduto, l’account “Europe Invasion”, noto per pubblicare contenuti islamofobi contro le persone migranti, ha scritto che il sospetto omicida era “ritenuto un migrante musulmano”. Quel post ha ottenuto oltre quattro milioni di visualizzazioni. Nel giro di 24 ore, i post pubblicati su X in cui l’aggressore era descritto come musulmano, rifugiato, straniero o uno arrivato via mare, hanno avuto 27 milioni di visualizzazioni.

La tragedia di Southport è avvenuta durante un periodo di grandi cambiamenti riguardanti le politiche e il personale di X. Da quando, nel 2022, Elon Musk ha acquistato la piattaforma, X ha ridotto il personale addetto alla moderazione, chiuso il comitato di consulenza Trust&Safety dell’epoca di Twitter, licenziato molte figure tecniche che vi lavoravano e ripristinato numerosi profili che erano stati chiusi per odio o molestie, come quello di Stephen Yaxley-Lennon, un estremista di destra conosciuto come Tommy Robinson.

Post incendiari

Tommy Robinson ha scritto ai suoi 840.000 follower che ci sono “più prove che l’Islam sia una malattia mentale anziché una religione di pace”, alimentando così ulteriormente l’ostilità nei confronti dei musulmani.

Il proprietario di X, Elon Musk, il cui profilo personale è seguito da 140 milioni di persone, ha notevolmente amplificato le false narrazioni sull’attacco di Southport. Il 5 agosto 2024, mentre erano in corso violenze razziste, ha commentato così un video pubblicato da Ashley St Clair:  “La guerra civile è inevitabile”.

Il primo ministro del Regno Unito Keir Starmer ha chiesto che le persone musulmane venissero protette mentre erano in corso attacchi contro moschee, centri di accoglienza per le persone rifugiate e le comunità asiatiche, nere e musulmane. Elon Musk gli ha replicato pubblicamente: “Non dovrebbe essere preoccupato per gli attacchi a *tutte* le comunità?”

La ricerca di Amnesty International mostra che, nelle due settimane successive all’attacco di Southport, i post di Tommy Robinson sono stati visti da oltre 580 milioni di persone: una cifra senza precedenti per una persona messa al bando dalle principali piattaforme per violazione delle norme sul discorso d’odio.

Il 18 luglio 2025 Amnesty International ha scritto a X condividendo i risultati della sua ricerca e fornendo all’azienda l’opportunità di replicare. Al momento, non ha ricevuto alcuna risposta.

Il momento di assumersi le responsabilità

L’analisi dell’architettura e delle politiche di X fatta da Amnesty International solleva grandi preoccupazioni sul funzionamento del sistema di contenuti raccomandati in situazioni di crisi. Il modo in cui tale sistema soppesa, classifica e promuove contenuti, soprattutto quelli che generano repliche di odio o quelli condivisi o creati da utenti ”Premium” o  con “spunta blu”, può generale materiale dannoso che viene divulgato in modo più ampio.

Quando questi contenuti prendono di mira gruppi razziali, religiosi o in altro modo marginalizzati, i diritti umani di chi vi appartiene sono in forte pericolo. Il fatto che X non impedisca o non mitighi in modo adeguato questi pericoli prevedibili costituisce una mancanza di rispetto dei diritti umani.

La normativa vigente in materia, come l’Online Safety Act del Regno Unito e il Digital Service Act dell’Unione europea, prevede gli obblighi legali per le aziende di valutare e mitigare alcuni rischi di sistema ma, perché producano qualche effetto, questi obblighi devono essere applicati in modo robusto. I criteri di scelta di X e le sue prassi opache continuano a porre rischi per i diritti umani: questo rende necessario non solo controlli ma una maggiore assunzione di responsabilità.

È questo ciò che Amnesty International ha chiesto a X. A sua volta, il governo di Londra deve colmare i vuoti esistenti nella normativa sulla sicurezza online per chiamare a rispondere piattaforme come X dei grandi danni causati dai loro algoritmi.

Ulteriori informazioni

Le autorità britanniche hanno reagito alle violenze razziste di Southport con una serie di arresti e di incriminazioni nei confronti di persone che avevano usato X o altre piattaforme per incitare alla violenza o diffondere maliziosamente notizie false. In alcuni casi sono state emesse condanne al carcere.

Nel luglio 2025 un rapporto di un comitato parlamentare ha concluso che i modelli aziendali delle piattaforme social hanno incentivato la diffusione di notizie false dopo gli omicidi di Southport.