TikTok: i feed di “For You” rischiano di spingere i minorenni verso contenuti dannosi per la salute mentale
Amnesty International ha diffuso due rapporti in cui denuncia che il sistema di raccomandazione dei contenuti di TikTok e il modello di business della stessa piattaforma sono pericolosi per i giovani utenti, in quanto amplificano i contenuti sulla depressione e sul suicidio che rischiano di peggiorare problemi di salute mentale già in atto.
I due rapporti – intitolati “Spinti verso il buio: come TikTok incoraggia all’autolesionismo e a idee suicide” e “Mi sento esposto: la rete di sorveglianza in TikTok” – mettono in luce le esperienze negative vissute da utenti minorenni della piattaforma e i modi in cui esse sono state favorite dal sistema di raccomandazione di contenuti e dal modello di business dell’azienda.
Le conclusioni tratte nei due rapporti sono il frutto di un’indagine tecnica congiunta, condotta da Amnesty International insieme all’Algorithmic Transparency Institute, durante la National Conference on Citizenship, e ad AI Forensics.
“I risultati delle indagini denunciano le prassi manipolative e che creano dipendenza di TikTok, studiate per coinvolgere gli utenti il più a lungo possibile. Il sistema di algoritmi che raccomanda contenuti, considerato l’artefice del rapido successo della piattaforma, espone bambini e giovani che hanno preesistenti problemi di salute mentale a gravi rischi”, ha dichiarato Lisa Dittmer, ricercatrice di Amnesty International.
I FEED DI “FOR YOU”
L’indagine tecnica è stata condotta usando più di 30 account automatizzati, creati per rappresentare tredicenni del Kenya e degli Usa, al fine di misurare gli effetti del sistema di raccomandazione di contenuti sui giovani. Sono stati creati altri tre account, gestiti manualmente, in Kenya, negli Usa e nelle Filippine.
Il rapporto “Spinti verso il buio” descrive come l’incessante ricerca dell’attenzione dei giovani rischi di acuire problemi di salute mentale come depressione, ansia e autolesionismo.
“For You” è una pagina altamente personalizzata e scrollabile all’infinito di contenuti raccomandati attraverso gli algoritmi, basati su quelli che il sistema ha individuato come gli interessi dell’utente.
L’indagine tecnica ha rivelato che dopo cinque-sei ore sulla piattaforma, almeno un video su due aveva a che fare con la salute mentale ed era potenzialmente dannoso, dieci volte di più della quantità mostrata a utenti che non hanno interessi legati alla salute mentale.
Sui profili degli utenti gestiti manualmente, in un periodo di tempo compreso tra tre e 20 minuti, oltre la metà dei video proposti da “For You” avevano a che fare con problemi di salute mentale. In un’ora di tempo, numerosi video raccomandati romanticizzavano, normalizzavano o incoraggiavano il suicidio.
UNA PIATTAFORMA REALIZZATA PER CREARE DIPENDENZA
Le discussioni nei focus group, le interviste ai giovani e prove già disponibili nel settore della ricerca sui danni provocati dai social media in rapporto alla salute pubblica, hanno rivelato che la piattaforma di TikTok è stata realizzata per incoraggiare un uso non salutare della piattaforma.
*Luis, uno studente di 21 anni delle Filippine con diagnosi di disordini bipolari, ha condiviso con Amnesty International la sua esperienza con i contenuti di “For You”:
“Inizia con un solo video. Se quello riesce a catturare la tua attenzione, anche se non ti piace, ti viene riproposto la volta dopo che apri TikTok e, siccome ti pare di conoscerlo, lo vedi ancora una volta. Così, la frequenza con cui ti viene riproposto tale video cresce esponenzialmente”.
*Francis, un altro studente delle Filippine, ha commentato:
“Quando vedo un video che mi rattrista e che in qualche modo ha a che fare con me, improvvisamente tutta la mia pagina ‘For You’ si riempie di tristezza e finisco in un ‘SadTok’ che condiziona in negativo il mio stato d’animo”.
*Joyce, una ragazza delle Filippine, ha raccontato:
“Per un po’ di tempo ho cancellato TikTok perché mi aveva reso fortemente dipendente. Ci passavo ore e ore scrollando i video perché non puoi fare a meno di capire cosa verrà fuori al successivo scroll”.
“Dalla nostra indagine è emerso che TikTok può esporre i bambini e i giovani a gravi rischi per la salute, grazie al suo modello di business che punta più a tenere gli occhi degli utenti incollati alla piattaforma che a rispettare il loro diritto alla salute”, ha commentato Dittmer.
LA RETE DELLA SORVEGLIANZA
Il rapporto “Mi sento esposto” evidenzia come le prassi di raccolta di dati, contrarie ai diritti umani, siano negativamente collegate alle dannose prassi di coinvolgimento degli utenti.
Il modello di business di TikTok è di per sé incline a creare abusi in quanto tende a tenere agganciati alla piattaforma gli utenti in modo da raccogliere sempre più dati su di loro. TikTok applica protezioni solo in certe zone del mondo, come in Europa, facendo sì che alcuni giovani utenti siano esposti allo sfruttamento dei loro dati più di altri.
“TikTok raccoglie dati in modo invasivo, ai danni soprattutto dei giovani utenti, in zone del mondo in cui le norme sulla protezione dei dati sono più deboli, come molti stati del Sud globale. TikTok deve rispettare i diritti dei suoi utenti più giovani, non solo in Europa, vietando tutte le raccomandazioni destinate ai minorenni”, ha affermato Lauren Armistead, vicedirettrice del programma Amnesty Tech.
Secondo Amnesty International, Tik Tok deve anche cessare di iper-personalizzare i contenuti di “For You” e consentire agli utenti, invece, di scegliere su quali loro interessi, espressi dopo un consenso informato, devono ricevere contenuti raccomandati. Devono anche poter scegliere espressamente se vogliono un feed personalizzato o meno.
Se da un lato Amnesty International sollecita TikTok ad adottare misure urgenti che vadano verso un modello di business che rispetti i diritti umani, dall’altro è necessaria una regolamentazione vincolante che protegga e realizzi i diritti dei bambini e dei giovani: ad esempio, leggi nazionali che mettano al bando tutti i contenuti raccomandati mirati basati sulla raccolta invasiva dei dati personali.
TikTok ha risposto alle conclusioni dell’indagine facendo riferimento alle sue Community Guidelines, dove sono elencati i contenuti vietati che, in caso di segnalazione o identificati in altro modo, vengono rimossi dalla piattaforma: ad esempio, quelli che “mostrano, promuovono o danno informazioni sul suicidio e sull’autolesionismo e relativi giochi, patti, scommesse e sfide”, che “mostrano o promuovono in modo scherzoso il suicidio e l’autolesionismo” o che “condividono propositi di suicidio e autolesionismo”.
TikTok ha aggiunto che sta sviluppando un “processo aziendale di due diligence basato sui diritti umani che includerà valutazioni periodiche d’impatto sui diritti umani”.
L’azienda non ha fornito dettagli su quali specifici rischi per i diritti umani dei bambini e dei giovani abbia identificato. Attualmente TikTok non ha in vigore un processo di due diligence basato sui diritti umani e questo è un evidente segnale del venir meno alla sua responsabilità di rispettare i diritti umani.
ULTERIORI INFORMAZIONI
I due rapporti citati in questo comunicato stampa si aggiungono a precedenti ricerche di Amnesty International nella stessa direzione.
Da “I giganti della sorveglianza” è emerso che il modello di business di Facebook e Google è inerentemente incompatibile col diritto alla privacy e costituisce una minaccia per altri diritti, come i diritti alla libertà di opinione e di espressione e i diritti all’uguaglianza e alla non discriminazione.
Due rapporti su Myanmar ed Etiopia hanno evidenziato come Meta abbia contribuito, amplificando su Facebook contenuti incitanti a odio, violenza e discriminazione, a gravi violazioni dei diritti umani.
Vi sono sempre più prove, dunque, a sostegno della campagna globale di Amnesty International che chiede alle aziende di onorare le proprie responsabilità e di riparare alle violazioni dei diritti umani associale al modello di business orientato alla sorveglianza di Meta, Google, TikTok e altre piattaforme della cosiddetta “Big Tech”.
*I nomi sono di fantasia per proteggere l’identità delle persone
- Ci sono 0 contributi al forum. - Policy sui Forum -