In base ai risultati dell’indagine effettuata da Global Witness, TikTok suggerisce contenuti pornografici agli utenti di 13 anni. L’organizzazione non governativa di Londra ha quindi rilevato una chiara violazione dell’Online Safety Act in vigore dal 25 luglio nel Regno Unito. Una delle cause è la mancata verifica dell’età, come ha evidenziato anche il Moige in Italia.
Protezioni poco efficaci
In base all’Online Safety Act, i social media devono implementare misure per evitare il suggerimento e quindi la visualizzazione nel feed di contenuti inappropriati per i minori. Global Witness ha effettuato una serie di test prima e dopo l’entrata in vigore della legge, scoprendo che le protezioni di TikTok non funzionano.
Per la ricerca sono stati creati sette nuovi account impostando un’età di 13 anni. È stata inoltre attivata la modalità limitata (Restricted Mode) che dovrebbe bloccare la visualizzazione di volgarità, contenuti sessualmente espliciti, violenza, armi da fuoco e sostanze illegali.
I contenuti sessualmente espliciti sono stati suggeriti quando è stato toccato per la prima volta il box di ricerca. Non era stato ancora inserito nessun termine. In altri casi, i video pornografici sono stati mostrati dopo alcuni clic. Ovviamente, l’algoritmo continua a suggerire simili contenuti quando l’utente visualizza i video. Global Witness ha scoperto alcuni video con minorenni.
Tutti i video pornografici era “nascosti” all’interno di immagini o video innocui, quindi è stato trovato un modo per aggirare la moderazione dei contenuti. TikTok ha rimosso oltre 90 video e alcuni suggerimenti di ricerca. Global Witness ha chiesto a Ofcom di avviare un’indagine.
In nessun caso è stata bloccata la visualizzazione attraverso la verifica dell’età. L’auto-dichiarazione al momento della creazione dell’account è praticamente inutile, così come i filtri della modalità limitata.