Inaction contre la haine en ligne en Éthiopie : Meta pourrait être poursuivi par la justice kényane

La Haute Cour de Nairobi a annoncé, le 3 avril, que la justice kényane était désormais compétente pour juger la firme américaine Meta, accusée d'avoir propagé des messages de haine durant la guerre du Tigré en Ethiopie, rejetant ainsi le recours de l'entreprise qui a assuré que les tribunaux du pays ne pouvaient pas la poursuivre.
L'affaire a débuté, en 2022, lorsque deux ressortissants éthiopiens ont déposé une plainte contre le réseau social Facebook, qu'ils accusent d'avoir joué un rôle dans la diffusion de messages de haine pendant le conflit du Tigré en Ethiopie.
Selon les plaignants, la plateforme aurait permis la circulation de contenus incitant à la violence et à la discrimination ethnique.
Cité par RFI, Abhram Meareg, l'un des plaignants, a exprimé son soulagement après la décision de la Haute Cour de Nairobi, qui a affirmé la compétence de la justice kényane pour poursuivre Meta.
Il a souligné que Mark Zuckerberg, à la tête Meta, ne devait pas penser que la justice se limitait aux frontières des États-Unis, rappelant que les vies africaines comptent également.
Meareg a perdu son père en 2021, un professeur de chimie à l'université de Bahar Dar, dans le nord-ouest de l'Éthiopie. Ce dernier a été tué après que son adresse a été partagée sur Facebook. Ce drame a profondément bouleversé Meareg et renforcé sa détermination à poursuivre Facebook en justice.
Le deuxième plaignant, Fisseha Tekle, un employé d’Amnesty International, a à son tour été victime de haine en ligne en raison de son travail en faveur des droits humains en Éthiopie.
S’exprimant à RFI, il a qualifié Meta de «mortel», soulignant en ce sens que son «algorithme valorise la violence».
L’Institut Katiba portera l’affaire dans l’intérêt public au regard de la haine et de la violence incontrôlées sur Facebook de Meta et des obligations constitutionnelles du Kenya, selon Amnesty.
Meta n’est pas au-dessus des lois africaines, dénoncent des activistes
Rosa Curling, directrice exécutive de l'organisation Foxglove, qui accompagne les parties civiles, a affirmé que «Meta est responsable» et que son algorithme favorise la violence. Elle a également rappelé que le géant américain «n'est pas au-dessus des lois africaines», a rapporté RFI.
De son côté, Mandi Mudarikwa, responsable des actions en justice stratégiques à Amnesty International, a déclaré dans un communiqué publié sur le site de l’organisation que «cette décision constitue une avancée positive pour amener les grandes entreprises technologiques à rendre des comptes pour leur contribution aux violations des droits humains. Elle ouvre la voie à la justice et rappelle aux grandes plateformes technologiques que l'ère de l'impunité est révolue».
«Cette décision donne l'espoir à ces communautés marginalisées à accéder à la justice, où qu'ils se trouvent dans le monde. Elle remet en question l'idée selon laquelle les pays en dehors des États-Unis et de l'Europe ne seraient que de simples marchés, permettant de réaliser des profits sans assumer de responsabilités», souligne-t-elle.
Quant aux parties civiles, elles ont appelé à la création d’un fonds de dédommagement d’au moins 2,5 milliards de dollars pour les victimes de haine sur Facebook, ainsi que la modification de l’algorithme du réseau social afin d’éviter de futurs abus.