RT France : Facebook va lancer aux Etats-Unis une série de mesures pour lutter contre les fausses informations partagées sur son réseau social. Pourquoi s'y intéresser maintenant ?
Guillaume Champeau (G. C.) : Il est important de comprendre que le questionnement lié aux «fake news» et aux plateformes n'a pris que récemment une telle importance sur le Web. Pourquoi ? Parce qu'il est totalement lié à la question de plus en plus préoccupante des «bulles filtrantes» dans lesquelles nous enferment les réseaux sociaux et certains moteurs de recherche. Alors que les plateformes étaient des intermédiaires neutres, elles se sont mises à vouloir recommander ou mettre en avant des contacts mais aussi des contenus, en fonction d'algorithmes qui déterminent un profil psychologique et social de l'individu, basé sur une interprétation de son activité sur Internet, et de l'activité de ses propres contacts. Le résultat est que ces algorithmes rendent visibles aux uns les informations qui plaisent aux uns, et font monter aux autres les informations qui plaisent aux autres. Cela enferme progressivement les individus dans des bulles et il devient beaucoup plus facile de manipuler ces bulles en y injectant de fausses informations qui sont automatiquement partagées et rarement mises en doute par ceux qui, parce qu'ils sont dans cette bulle, sont portés à y croire. Les utilisateurs ne sont jamais confrontés aux opinions des autres, ou bien trop rarement, et croient de plus en plus ce que leurs contacts "de confiance" partagent.
La vraie vie, ce sont des gens qui ont des opinions diverses, qui débattent, et qui se mettent en garde les uns les autres
RT France : Au cœur de cette nouvelle politique, il y a donc aussi une remise en question du fonctionnement et de l'algorithme de Facebook ?
G. C. : Le problème politique que rencontre Facebook, dans sa nécessité de filtrer les informations partagées qui seraient fausses, est directement issu de sa volonté première d'écarter ou de mettre en avant certaines informations en fonction du profil personnel de l'utilisateur, établi grâce à la collecte massive de ses données. Celui-ci n'est plus confronté à ceux qui, auparavant, pouvaient contester d'eux-mêmes la véracité d'une information. Or la vraie vie, ce sont des gens qui ont des opinions diverses, qui débattent, et qui se mettent en garde les uns les autres.
C'est pourquoi chez Qwant, nous avons fait le choix assumé de ne collecter aucune donnée personnelle de nos utilisateurs, de ne pas chercher à connaître leur profil, et donc de ne pas faire remonter tels ou tels résultats dans notre moteur de recherche en fonction de qui fait la recherche. Nos résultats sont les mêmes pour tous, et nous n'enfermons pas des bulles filtrantes. Nous confrontons l'utilisateur à la réalité du monde, avec autant de neutralité que possible.
Il est de manière générale dangereux pour la démocratie qu'un Etat ou qu'une grande entreprise privée se mette à décider, en dehors des cas prévus par la loi, de quelles informations peuvent être partagées
RT France : Les fausses informations seront remontées en premier lieu par les utilisateurs. Si un nombre important de lecteurs signalent cette publication, elle sera vérifiée par des organisations de fact checking indépendantes (notamment PolitiFact, Snopes et FactCheck.org) et l'agence de presse Associated Press. Des conservateurs américains craignent leur manque d'impartialité. Est-ce, malgré les critiques, la bonne méthode à suivre ?
G. C. : Il est, de manière générale, dangereux pour la démocratie qu'un Etat ou qu'une grande entreprise privée se mette à décider, en dehors des cas prévus par la loi, de quelles informations peuvent être partagées et quelles informations ne doivent pas l'être. Même déléguer ce travail à certaines associations pose de nombreuses questions et aucune réponse ne sera idéale. Il faut remonter à la racine du problème, et cette racine est bien la personnalisation des réseaux sociaux et moteurs de recherche selon chaque utilisateur, et selon les contacts de chaque utilisateur.