Ce 25 mars, le Conseil français du culte musulman (CFCM) a annoncé qu'il portait plainte contre Facebook France et YouTube France pour la diffusion du massacre de 50 fidèles musulmans par un extrémiste australien à Christchurch, en Nouvelle-Zélande.
L’association représentative des musulmans de France accuse les deux géants des réseaux sociaux d’avoir diffusé un «message à caractère violent incitant au terrorisme ou de nature à porter gravement atteinte à la dignité humaine susceptible d'être vu ou perçu par un mineur», cite l’AFP, qui précise détenir une copie de la plainte envoyée au procureur de la République de Paris.
Le CFCM affirme que les «actes de terrorisme étaient maintenus» sur Facebook «29 minutes après le début» de leur diffusion, avant que les modérateurs de Facebook ne les retirent, «minutes durant lesquelles des mineurs ont eu accès à ce film, et notamment des mineurs de confession musulmane, profondément traumatisés par ce film». Comme le rapporte l'AFP, les faits reprochés à Facebook et YouTube sont passibles de trois ans d'emprisonnement et de 75 000 euros d'amende.
Pendant qu'il perpétrait son carnage, l'auteur de l'attaque terroriste dans deux mosquées de Christchurch, Brenton Tarrant, portait une caméra corporelle et diffusait les images en direct sur les réseaux sociaux. Avant qu'elle ne soit supprimée par Facebook, la vidéo a été partagée des millions de fois sur la toile.
Cible de critiques, le géant des réseaux sociaux avait alors été contraint de réagir : «Au cours des 24 premières heures, nous avons retiré dans le monde 1,5 million de vidéos de l'attaque, dont plus de 1,2 million bloquées lors de leur téléchargement», avait expliqué réseau social américain dans une série de tweets.