Le réseau social TikTok a annoncé le 3 février qu’il commencerait à signaler les contenus soupçonnés de créer de la «désinformation». Cette nouvelle politique de vérification des contenus entre en vigueur ce 4 février au Canada et aux Etats-Unis, et courant février dans le reste du monde.
Sur le compte twitter via lequel TikTok communique, l'entreprise explique sa démarche : «Aujourd’hui, nous mettons en œuvre un partenariat pour informer des utilisateurs quand une vidéo contient des informations sans fondement afin d’en réduire le nombre de partages», et pour promouvoir ce qu'elle appelle une «communauté authentique».
En consultant le site de l'entreprise, on peut aussi lire : «Nous retirons les fausses informations lorsque nous les identifions et nous avons lancé des partenariats avec des vérificateurs de faits tels que PolitiFact, Lead Stories, et SciVerify afin de nous aider à évaluer l’exactitude des contenus». Si les vérificateurs confirment que les contenus sont faux, TikTok retire la vidéo. «Mais parfois les vérifications ne sont pas concluantes, ou bien le contenu n’est pas vérifiable, spécialement durant le déroulement d’événements.» Dans ces cas, une vidéo peut «devenir inéligible pour recommandation» afin de «limiter la diffusion d’informations potentiellement trompeuses».
TikTok dans les pas de Twitter ?
Concrètement, «un utilisateur verra s’afficher une bannière sur une vidéo si le contenu a été étudié mais ne peut être définitivement validé». Quant au créateur d’une vidéo, il se verra aussi «notifier que ses vidéos ont été signalées comme constituant des contenus sans fondement». S’il essaie de partager une vidéo de ce type, il sera averti que la vidéo a été «signalée comme contenu non vérifié». Il pourra ensuite annuler sa démarche ou publier.
TikTok affirme avoir testé cette approche et avoir constaté une chute de 24% du taux de vidéos partagées par certaines personnes. Le taux de «likes» («j'aime») sur les vidéos à contenu sans fondement a chuté de 7%.
Les réseaux sociaux durcissent depuis quelques semaines leur politique et leur traitement de certaines informations. Au lendemain des violences survenues au Capitole à Washington, le 7 janvier, le PDG de Facebook, Mark Zuckerberg a annoncé que les comptes Facebook et Instagram de l'ancien président américain Donald Trump avaient été bloqués avant que les réseaux ne les suspendent définitivement.
Peu avant ces blocages et ces suspensions, même une vidéo dans laquelle Trump appelait ses partisans à rentrer chez eux et à respecter les forces de l'ordre avait fait l'objet de restrictions en termes d'interactions, avant d'être tout simplement retirée par Twitter, Facebook et YouTube.