TikTok censura i disabili per proteggerli? Contro il bullismo l’app dei record rischia la discriminazione


PROPRIO in occasione della Giornata mondiale dedicata alla disabilità, un rapporto di Netzpolitik.org svela come TikTok, il social degli adolescenti, avrebbe discriminato gli utenti con disabilità e con altri tipi di problemi fisici o mentali. L’intento, pare di capire, era ed è quello di proteggerli dal cyberbullismo che può svilupparsi sulla piattaforma da oltre un miliardo di utenti. Il risultato, a quanto pare, è stato una sorta di censura preventiva che ha condotto a una ridotta diffusione dei post pubblicati da quegli utenti e alla disattivazione di alcune funzionalità per i contenuti da loro diffusi, al contrario attive di default.


TikTok censura i disabili per proteggerli? Contro il bullismo l'app dei record rischia la discriminazione

Secondo il rapporto, che si basa su alcuni documenti interni dell’applicazione cinese ma anche sui contatti con una fonte interna al gruppo, TikTok avrebbe (o almeno, aveva fino a poco tempo fa) delle regole particolari per gli utenti con “visibili o chiare” forme di disabilità o deformità fisiche. Si tratta, secondo le policy, di persone con “autismo, sindrome di Down, deformità facciali e disabili o persone con problematiche al volto come voglie o strabismi e altro”. Queste persone, secondo i documenti ottenuti dalla piattaforma tedesca che si occupa di diritti digitali, “sono estremamente vulnerabili ad atti di cyberbullismo”. Quindi cosa fare? Limitarne la diffusione.


TikTok censura i disabili per proteggerli? Contro il bullismo l'app dei record rischia la discriminazione

In un’altra parte dei documenti, infatti, si spiega come i post suscettibili di scatenare atti di cyberbullismo saranno “consentiti, ma catalogati con l’etichetta di rischio numero 4”. Di cosa si tratta? Di una serie di procedure legate alla distribuzione di quei video. Primo: saranno mostrati solo a utenti del proprio paese, limitandone la circolazione internazionale. Secondo: non saranno pescati dall’algoritmo per essere mostrati nella bacheca “aperta”, quella che in italiano si chiama “Per te” e affianca l’altra, “Seguiti”, in cui vengono elencati i contenuti degli utenti di cui siamo appunto già follower. Almeno dopo un certo numero di visualizzazioni.
 
Questo significa che ogni utente con una situazione come quella elencata in precedenza subirà di default un trattamento differente al resto della community: “reach” potenziale, cioè capacità di diffusione all’audience, limitato. Perché TikTok crede (o credeva, questo non è ben chiaro) di proteggerli. Tutto questo lasciato in gran parte alle decisioni, come sempre ultrarapide (non più di 30 secondi a disposizione), dei moderatori in carne e ossa nei centri di Berlino, Pechino o Barcellona. L’etichetta applicata era nota come “Auto R”.
 
Non solo. Se questo trattamento veniva riservato a singoli contenuti, in un paio di dozzine di situazioni queste modalità sono state riservate all’intera produzione degli utenti. Insomma, in almeno una ventina di casi abbondante agli inconsapevoli utenti è riservata di base una platea ridotta. Nelle altre situazioni, la decisione si applica di volta in volta, giudicando dal contenuto in questione. Secondo Netzpolitik questo tipo di censura, almeno quella che sovrintende alla selezione per la bacheca aperta alla community, sarebbe stata applicata anche ad altre categorie di utenti come quelli in sovrappeso e quelli LGBT. Se davvero l’intenzione è od era quella di proteggere potenziali vittime di abusi online, sembra che in questo modo TikTok abbia deliberatamente agito in modo estremamente violento, ritagliando la propria community in un certo modo e penalizzando alcune categorie.
 
Come sempre, per esempio nel caso di Feroza Aziz, l’adolescente che ha beffato la censura parlando della repressione degli uiguri in un (apparente) video di bellezza, l’applicazione si difende facendo riferimento al clamoroso successo ottenuto solo di recente e ai tanti cambiamenti che stanno avvenendo, anche nelle policy, proprio negli ultimi mesi o settimane. Un portavoce della piattaforma, controllata da ByteDance, ha spiegato che quelle regole erano solo un modo iniziale e imperfetto di sedare i conflitti sull’app. Sempre a Netzpolitik ha spiegato che l’app “non ha mai inteso quelle procedure come una soluzione a lungo termine”. Tuttavia la fonte dell’organizzazione ha confermato che quel tipo di indicazioni sono state fornite ai moderatori fino allo scorso settembre. Nulla di così datato, insomma, roba di due mesi fa. Proprio mentre si lanciavano challenge o iniziative di sensibilizzazione dedicate al rispetto e all’inclusione. Bella contraddizione.
 
“All’inizio, in risposta a un aumento del bullismo sull’app, abbiamo sviluppato una policy provvisoria – ha aggiunto un portavoce a The Verge riconoscendo il pasticcio – mentre l’intento era positivo, l’approccio è stato sbagliato e da allora abbiamo cambiato quelle regole in favore di policy anti-bullismo più sfumate e protezioni interne”. Sarebbe il caso di spiegarle nel dettaglio, queste pratiche, per capire se e come siano davvero cambiato l’approccio di qualche tempo fa.
 
 
 
 
 
 
 

“La Repubblica si batterà sempre in difesa della libertà di informazione, per i suoi lettori e per tutti coloro che hanno a cuore i principi della democrazia e della convivenza civile”

Carlo Verdelli
ABBONATI A REPUBBLICA