© Jaap Arriens/NurPhoto
Tempo di lettura stimato: 10'
Nota: il rapporto presenta contenuti che potrebbero turbare alcune persone
In un rapporto che, per la prima volta, analizza il modello aziendale di X, Amnesty International ha dichiarato che in Polonia la piattaforma social già conosciuta come Twitter contribuisce alla diffusione di odio mirato contro le persone lgbtqia+.
Il rapporto, intitolato “Tagliuzzata mille volte. La violenza basata sul genere facilitata dalla tecnologia su X contro la comunità lgbtqia+ in Polonia”, spiega come il modello aziendale di X e la moderazione dei contenuti contribuiscano alla diffusione della violenza basata sul genere facilitata dalla tecnologia (Tecnology facilitated gender-based violence, Tfgbv).
“Attraverso prassi inadeguate di moderazione dei contenuti e l’assenza di una due diligence sui diritti umani, X contribuisce a colpire le persone appartenenti alla comunità lgbqia+ in Polonia”, ha dichiarato Alia Al Ghussain, ricercatrice e consulente di Amnesty International su tecnologia e diritti umani.
Questa combinazione, insieme all’ingiustificabile rimozione delle tutele conto i discorsi d’odio, significa che X è diventata terreno fertile per la proliferazione di contenuti che costituiscono Tfgbv, a scapito dei diritti delle persone lgbtqia+ alla libertà di espressione, alla libertà di associazione, alla non discriminazione e alla possibilità di vivere in sicurezza all’interno della società polacca.
La comunità lgbtqia+ della Polonia subisce su X forme di Tfgvb quali minacce di violenza, molestie online, doxing (la diffusione online di informazioni private su una persona con l’intenzione di arrecarle danno) e odio online mirato.
Tutto ciò ha già costretto alcune persone a non usare più la piattaforma, per la paura di essere esposte o emarginate.
Insieme all’Istituto per la trasparenza degli algoritmi della Conferenza nazionale della cittadinanza, sono stati creati 32 profili di ricerca che, tra il 1° e il 31 marzo 2025, hanno raccolto 163.048 tweet.
L’analisi di questi tweet ha rivelato un’alta prevalenza di contenuti anti-lgbtqia+. Dall’analisi su un campione di 1387 tweet è emerso che i contenuti omofobici e transfobici sono assai più diffusi sui profili X che seguono esponenti politici che si oppongono ai diritti delle persone lgbtqia+.
Il sistema di contenuti raccomandati di X, l’algoritmo che gestisce la cronologia “Per te”, è realizzato per massimizzare la partecipazione dell’utente. Dando priorità al suo ingaggio, l’algoritmo è incentivato a mostrare contenuti che genereranno interazioni. Anche con tutte le possibili tutele, tale sistema rischia di generare un’amplificazione di contenuti negativi che stimolano a loro volta reazioni forti per tenere in vita il ciclo dell’ingaggio.
Per la prima volta Amnesty International ha condotto un’analisi basata sui diritti umani del modello aziendale di X. Si conferma l’ampiezza di un modello aziendale basato sulla sorveglianza, che si basa su una raccolta aggressiva di dati sull’utente che, in tal modo, riceve proposte mirate, analogamente a quanto fanno i modelli aziendali di altre piattaforme social.
Questo modello, insieme a politiche e prassi inadeguate di moderazione dei contenuti, pone la comunità lgbtqia+ della Polonia a rischio di essere presa di mira da contenuti che costituiscono Tfgbv.
Le persone utenti della comunità lgbtqi+ polacca vengono prese di mira a causa del loro genere reale o percepito, del loro orientamento sessuale o a causa di ciò che pubblicano.
Aleksandra Herzyk, un’artista asessuale di Cracovia, ha raccontato di essere stata costretta a lasciare X a causa dell’odio diretto contro di lei, dopo che aveva postato un contenuto su un intervento chirurgico di riduzione del seno cui si era sottoposta e che aveva immotivatamente portato altri utenti a concludere che fosse una donna trans:
“Le cose che leggi su te stessa sai che non sono vere ma comunque ti rimangono in mente. È come morire tagliuzzata mille volte. C’era gente che scriveva di avermi vista in palestra o altrove, che mi avrebbe spezzato le ossa, che auspicava che mi avrebbero ammazzata”.
Magda Dropek, 42 anni, attivista lgbtqia e per il diritto all’aborto, nonostante tutto usa ancora X:
“Lo uso per lo più per fare attivismo queer e attivismo politico. So quanto sia uno strumento importante dal punto di vista della comunicazione e dell’attivismo. Quando io o un’altra persona pubblichiamo un contenuto queer, molto spesso all’inizio ci sono sì e no 30 o 40 like e cinque commenti, poi dopo un giorno o solo qualche ora ci sono 500 commenti, tutti anti-lgbtqia+. Lo fanno per ridurci al silenzio, per mostrarci che quello non è il nostro posto, per farci sapere che dobbiamo stare in silenzio ed essere invisibili”.
Queste sono le parole di Maja Heban, 34 anni, una donna trans di Varsavia:
“Qualunque cosa gli altri utenti possano dire va bene: paragonare le persone lgbtqia+ ad animali, a stupratori, a pedofili…va tutto bene”.
La costante scarsità di investimenti di X nella moderazione di contenuti in lingua polacca contribuisce significativamente a questa situazione.
Nel suo rapporto sulla trasparenza, X stessa mostra di avere solo due moderatori di contenuti di lingua polacca, che peraltro per uno dei due non è neanche la lingua madre.
Queste due persone dovrebbero occuparsi di un paese che ha 37,45 milioni di persone e 5,33 milioni di utenti.
“La combinazione tra la scarsità delle risorse, delle politiche e delle prassi ha contribuito a rendere X una piattaforma inondata da contenuti d’odio che prendono di mira la comunità lgbtqia+”, ha commentato Al Ghussain.
Il 22 agosto 2024 Amnesty International ha scritto a X a proposito del modello aziendale applicato in Polonia tra il 2019 e il 2024, senza ricevere risposta.
Ai sensi dell’Atto sui servizi digitali (Digital Services Act, Dsa) dell’Unione europea, le piattaforme digitali di dimensioni molto grandi devono valutare e mitigare i rischi di sistema per i diritti umani. La valutazione effettuata da X nel 2024 ha riconosciuto l’esistenza di rischi di odio e di intimidazioni ma senza fare alcuna menzione dei danni arrecati alle persone lgbtqia+.
Da un’analisi indipendente, avente come punto di riferimento il Dsa, sulla valutazione dei rischi e le misure di mitigazione di X, che ha preso in esame il periodo dal 1° al 23 agosto 2024, è emerso che sia la valutazione che le misure di mitigazione erano deboli, inefficaci e prive di tutele rispetto ai sistemi basati sull’algoritmo.
Le ripetute carenze di X in Polonia mostrano che l’azienda non ha affrontato i rischi di sistema connessi ai diritti umani. Il Dsa rappresenta un passo importante verso l’assunzione delle responsabilità e la possibilità di rimediare e dev’essere applicato in modo robusto ed efficace.
Amnesty International ha nuovamente scritto a X il 25 giugno 2025 per presentare i contenuti di questo suo rapporto e dare all’azienda la possibilità di replicare ma, di nuovo, non ha ricevuto alcuna risposta.
La Commissione europea deve espandere le sue indagini in corso su X per valutare anche se l’azienda sia in grado di affrontare in modo efficace il rischio di Tfgbv. X deve urgentemente introdurre riforme per garantire che cesserà di contribuire a violazioni dei diritti delle persone lgbtqia+ della Polonia, dotarsi di risorse di moderazione dei contenuti in lingua polacca e porre fine al suo modello aziendale basato sulla sorveglianza.
Amnesty International aveva già rilevato come l’infrastruttura e le politiche di X favorissero la diffusione di narrazioni false sulle persone migranti e di religione musulmana nel Regno Unito e come la piattaforma fosse diventata un luogo di proliferazione di violenza e molestie contro le donne.
Nel 2019 l’organizzazione per i diritti umani aveva denunciato che il modello aziendale basato sulla sorveglianza di Google e Meta costituiva una minaccia per i diritti umani, concludendo che quei due modelli aziendali erano “per loro natura incompatibili” con una serie di diritti umani.
Vuoi saperne di più sulla violenza di genere online? Puoi seguire il nostro corso online gratuito sul tema.