Le conseil de surveillance de Facebook juge «vague» la politique de modération des contenus de la plateforme, et a annulé quatre décisions du réseau social de supprimer des publications sur cinq cas examinés, estimant ces choix problématiques.
L'une des annulations porte sur une publication en France que la société estimait présenter «un risque imminent [...] de danger physique», selon un communiqué daté du 28 janvier.
Ce message d'octobre 2020 était une vidéo et un texte d'accompagnement en français dans un groupe Facebook consacré au Covid-19. La publication faisait état d'un prétendu scandale à l'Agence nationale du médicament, le régulateur du secteur de la santé, qui avait refusé d'autoriser l'utilisation de l'hydroxychloroquine contre le Covid-19. L'utilisateur critiquait l'absence de stratégie sanitaire en France et jugeait que l'hydroxychloroquine pouvait sauver des vies
Le conseil, dont la mission est d'évaluer des décisions de la plateforme sur certains contenus controversés, a demandé à Facebook de restaurer ce message, jugeant que le règlement du site sur la désinformation et le danger physique imminent étaient «indûment vagues».
Dans plusieurs cas, les membres se sont demandé si le règlement de Facebook était suffisamment clair
Les cas examinés sont des publications supprimées en octobre et novembre dans quatre continents – Europe, Amérique du Nord, Asie et Amérique du Sud – par Facebook. Le conseil, qui a commencé son travail en décembre, s'est saisi de six premiers cas au total.
Ils portent sur des contenus ayant enfreint les règles du réseau sur les discours de haine, les organisations dangereuses ou encore la nudité. Outre la France, ces exemples concernent les tensions politiques en Birmanie, le conflit entre l'Azerbaïdjan et l'Arménie ou encore une citation d'un dirigeant nazi par un utilisateur de Facebook aux Etats-Unis.
Dans l'un des cas, le conseil de surveillance dit s'être «interrogé sur la question suivante : le réseau social avait-il le droit de retirer une publication contenant une injure haineuse dans le cadre d'un "conflit armé" ?»
«Dans plusieurs cas, les membres se sont demandé si le règlement de Facebook était suffisamment clair», ajoute le «conseil des sages», qui a émis plusieurs recommandations, demandant notamment au groupe de Mark Zuckerberg d'être plus transparent sur la façon dont il modère la désinformation. Facebook doit se conformer aux décisions de cette instance.
Ce projet, une sorte de «Cour suprême» ayant le dernier mot sur les contenus controversés sur Facebook et Instagram, avait été annoncé fin 2019 par Mark Zuckerberg.