Twitter teste une option pour que les utilisateurs signalent eux-mêmes les messages «trompeurs»
- Avec AFP
La fonctionnalité est pour l'instant expérimentée auprès de quelques usagers aux Etats-Unis, en Corée du Sud et en Australie. Twitter explique vouloir ainsi «améliorer la vitesse et la portée de [son] travail sur la désinformation».
Twitter a annoncé le 17 août qu'il testait un nouvel outil pour permettre à ses utilisateurs de signaler des contenus relevant potentiellement de la désinformation, un fléau qui a explosé pendant la pandémie. «Nous testons une fonctionnalité pour vous permettre de rapporter les tweets qui semblent trompeurs, au moment même où vous les voyez», a expliqué le réseau social via son compte dédié à la sécurité.
We're assessing if this is an effective approach so we’re starting small. We may not take action on and cannot respond to each report in the experiment, but your input will help us identify trends so that we can improve the speed and scale of our broader misinformation work.
— Twitter Safety (@TwitterSafety) August 17, 2021
Une poignée d'utilisateurs aux Etats-Unis, en Corée du Sud et en Australie peuvent désormais sélectionner l'option «c'est trompeur» après avoir cliqué sur «signaler le tweet». Ils auront ensuite le choix entre plusieurs catégories : «santé», «politique» et «autre».
«Nous examinons si c'est là une approche efficace, donc nous commençons à petite échelle. Nous ne réagirons pas et ne pourrons pas répondre à chaque signalement pendant cette expérience, mais vos contributions nous aideront à identifier des tendances afin d'améliorer la vitesse et la portée de notre travail sur la désinformation», a précisé l'entreprise basée à San Francisco.
Biden a affirmé que les réseaux «tuaient» des gens en laissant circuler de fausses informations
Twitter, comme Facebook et YouTube, se voit régulièrement reprocher de ne pas lutter suffisamment contre la «désinformation». Mais la plateforme n'a pas les mêmes ressources que ses voisins de la Silicon Valley, et explore donc des techniques moins coûteuses que de recruter des armées de modérateurs. Au fil des années, et surtout pendant la campagne électorale américaine et la pandémie de Covid-19, le réseau social a durci ses règles. Depuis mars, par exemple, les utilisateurs peuvent être bannis au bout de cinq rappels à l'ordre s'ils sont accusés de «désinformation sur les vaccins».
Un système inspiré de celui mis en place au sujet des élections, qui a notamment conduit Twitter à bannir l'ancien président américain Donald Trump après avoir jugé qu'ils avait commis des infractions répétées telle l'incitation à la violence ou des messages jetant le discrédit sur le scrutin présidentiel. Des modérateurs sont chargés de déterminer quels contenus enfreignent les règlements, mais la plateforme avait à l'époque dit espérer mettre au point un système à la fois humain et automatisé pour détecter les messages problématiques.
En juillet, le président américain Joe Biden a estimé que Facebook et d'autres plateformes «tuaient» des gens en laissant circuler de fausses informations sur la vaccination contre le Covid-19. Il était revenu sur ses propos pour préciser que les «fausses infos» diffusées par les utilisateurs pouvaient «faire du mal à ceux qui les écoutent» et «tuer des gens».