La nova reina de l’entreteniment i la interacció social en el món de les xarxes socials és, sens dubte, TikTok. La companyia xinesa no para d'expandir-se i no és d'estranyar. L'experiència que ofereix aquesta xarxa social és visual, addictiva i ràpida. Els millors ingredients per enganxar a la teva audiència durant hores, però també un funcionament on l'usuari passivament consumeix contingut i recau en les mans d'un algoritme desconegut.
Amb les capacitats de decisió limitades al màxim, l'algoritme de TikTok mostra a cada persona el que conclou que li interessa. Un modus operandi que pot recordar als vídeos que suggereix YouTube, però que en aquest cas l'usuari ni tan sols decideix si accepta la recomanació, simplement el trobarà quan llisqui sobre la pantalla.
Com va passar amb YouTube i el seu algoritme de recomanació, aquesta ha estat una porta d'entrada a TikTok per als discursos d'odi, racistes i misògins. Un estudi de l'Institut per al Diàleg Estratègic (ISD, en les seves sigles en anglès) exposa que la propaganda d'extrema dreta s'està expandint per la plataforma ràpidament. "TikTok ofereix una plataforma perquè aquest contingut explícit arribi a nous públics i potencialment arribi a públic més jove, cosa que és força preocupant", va dir Ciaran O'Connor, investigador de l'ISD.
Lliçó apresa, però no aprovada
La disseminació de discursos d'extrema dreta és un problema al qual s'han enfrontat abans altres plataformes com Facebook, Twitter i, la ja esmentada, YouTube. La investigació de l'ISD ha assenyalat que Tiktok ha pres nota dels seus predecessors, els quals encara lluiten contra el contingut extremista a les seves webs.
Però n'ha après prou? Tot sembla indicar que no. "TikTok ha mostrat signes de que han crescut ràpidament i han après les lliçons d'altres plataformes sobre les possibles trampes d'aquests discursos. Però aquesta investigació demostra que encara els queda un camí per recórrer", ha declarat O'Connor a Politico.
En la seva anàlisi han estudiat més d'un miler de vídeos, dels quals el 30% contenien missatges d'extrema dreta, d'aquests el 80% segueixen penjats en aquesta xarxa social. Pels investigadors això mostra com hi ha un greu buit entre la denúncia i la retirada del contingut per part de l'empresa.
TikTok per la seva banda ha declarat que en què el primer trimestre de 2021 havia eliminat el 90% del contingut que incomplia les normes de publicació de la companyia. Però que passa quan les normés són febles? La conclusió de l'ISD és que la xarxa d'origen xinès té seriosos problemes per moderar el contingut de la seva pròpia aplicació.
Nous codis
La lògica per bloquejar un contingut a Tiktok és molt simple: es retira qualsevol cosa que sigui molt explícita. És una norma coneguda per tot usuari, inclosos els neonazis que disseminen la seva propaganda per aquesta xarxa.
Però que passa quan l'algoritme no identifica que estàs parlant de nazis, que negués l'holocaust, que estàs sent misogin? Aleshores el teu contingut tindrà una llarga vida circulant per les pantalles dels mòbils de milers de persones.
Com només cal no ficar una foto de Hitler en el teu vídeo perquè aquest segueixi circulant, molts dels vídeos amb propaganda d'extrema dreta fan servir nous codis i símbols. Politico ho exemplifica amb els neonazis que van omplir la xarxa social amb fotos i vídeos d'Oswald Mosley, el líder feixista britànic dels anys 30 que tenia estrets vincles amb el Tercer Reich, fent-lo servir a ell com símbol de la seva causa per no ser bloquejats.
El cor del missatge queda intacte, però l'embolcall és diferent. El resultat és que gràcies a un petit gir els missatges d'odi passen desapercebuts.
Perfecte per la propaganda
L'ISD ha valorat que la plataforma de micro-vlogging està construïda d'una manera que afavoreix l’expansió d'aquesta mena de discursos. Un exemple amb què il·lustren aquesta afirma és la funció "duo", amb la qual un usuari pot compartir pantalla amb el vídeo d'un altre. Aquesta és una de les més freqüents i efectives en què l'extrema dreta assenyala discursos que no li agraden i, de pas, assenyala a la persona que els ha fet.
Més facilitats que posa la plataforma perquè aquests discursos se segueixin movent és poder restringir els comentaris a un vídeo. Si un usuari pot fer un vídeo on fa apologia del nazisme, però si no li posa hashtags i no permet que ningú comenti té moltes possibilitats de no ser eliminat. Molts dels vídeos que es retiren de la plataforma xinesa no són pel contingut audiovisual en si, sinó per les paraules claus que es troben la secció de comentaris. Una entrada fàcil per a Tiktok per identificar discurs ultra, però que ells mateixos permeten tancar.
Quan la plataforma detecta un hashtag que considera perillós el bloqueja, però els usuaris simplement cerquen variacions d'aquest. Per exemple, si es bloqueja #ChinaVirus, els usuaris passen a #ChinaFlu per seguir amb el seu missatge, segons publica l'ISD. Quan en un futur aquest hashtag també sigui bloquejat es pot esperar que en sortirà un altre i així successivament.