search-form-close
Le rôle de Facebook dans le mouvement de contestation en Algérie

Le rôle de Facebook dans le mouvement de contestation en Algérie

Xavier Cazard est directeur associé de l’agence de communication Entrecom, spécialisée dans les stratégies digitales social media. Il revient dans cet entretien sur le rôle joué par les réseaux sociaux dans les mouvements de contestation, en particulier sur le rôle joué par les algorithmes de Facebook dans la propagation d’un mouvement et sur la manière avec laquelle les algorithmes peuvent être manipulés.

Comment débute un mouvement sur les réseaux sociaux ?

Habituellement on dit que Twitter, qui est un réseau social et un média d’information, est un lieu où les cyber-activistes sont très présents alors que Facebook est plutôt un lieu où vont se réunir les gens pour parler de manière positive d’eux-mêmes. Ce qui est en train de se passer, c’est que Facebook devient aussi un endroit où les activistes deviennent très présents car c’est le réseau le plus populaire.

Comment s’organise un mouvement de contestation sur les réseaux sociaux ?

Il y a différentes manières de structurer un mouvement. Ça peut être autour d’un hashtag, qui permet de cristalliser comme une campagne de pub avec un slogan derrière lequel tout le monde se retrouve. Ça peut également être juste une viralité de communautés qui se reconnaissent dans un mouvement de contestation et qui par capillarité vont s’étendre et s’élargir.

Quel rôle jouent les algorithmes de Facebook dans la naissance et la propagation d’un mouvement de contestation ?

Le propre des algorithmes de Facebook c’est « qui se ressemble s’assemble ». Ils vont donc mettre en avant les thématiques et les positions qui correspondent à celles qui vont intéresser. On n’est donc pas dans le pluralisme des informations, mais beaucoup plus dans un tunnel ou un entonnoir. Facebook va renforcer l’opinion que l’on a déjà.

Comment ça se passe concrètement ?

Ça passe par le fil d’actualité de Facebook, qui va faire remonter les informations qui vont renforcer mes convictions existantes. Comme ma conviction est partagée par des gens qui sont dans le même réseau que moi, Facebook ne va pas m’aider à forger une opinion mais au contraire à conforter mon opinion.

Est-il possible d’utiliser l’algorithme pour manipuler l’opinion ?

On sait que c’est possible, puisqu’on a vu durant les dernières élections américaines qu’il y a une stratégie qui a été mise en place par une société nommée Cambridge Analytica. Cette société est partie du principe que l’opinion va être transformée non pas par un média ou un vecteur d’information, mais par quelqu’un qui me ressemble qui a une opinion qui touche une corde sensible et me fait basculer dans une autre opinion. Sur Facebook, c’est donc une stratégie de communication de pair-à-pair plus qu’une stratégie de communication de « leader d’opinion ».

Comment Facebook peut savoir que je suis contre le gouvernement, par exemple ?

Il y a une analyse sémantique. L’algorithme analyse les termes de la publication et peut tout de suite repérer si sa tonalité est positive ou négative par rapport au sujet qu’il traite.

Quelles sont les publications qui ont droit à la plus grande traction par Facebook ?

Les messages négatifs attirent et ont beaucoup d’audience. C’est lié à la psyché humaine, on est beaucoup plus réactif à ce qui peut être un danger pour nous qu’à quelque chose qui fonctionne bien. Notre survie en tant qu’espèce est de pouvoir identifier ce qui serait dangereux. Les messages négatifs ont par conséquent beaucoup plus de portée que des messages positifs.

Le « non » attirerait plus que le « oui » ?

Exactement, surtout lorsque la culture du « non » n’est pas très développée. L’information aura beaucoup plus de portée et aura un engagement émotionnel plus important.

Comment identifier le fait qu’on soit manipulé ?

C’est très difficile. Après le scandale américain, Facebook essaie d’être plus regardant sur qui sont des vrais comptes ou de faux comptes. Les comptes appartiennent-ils bien à des personnes physiques, ou sont-ils des comptes fictifs ? Cambridge Analytica avait créé des comptes fictifs, de faux pairs, qui exprimaient des idées différentes dans des groupes où ils s’intégraient et poussaient les gens à se dire « si mon voisin pense comme ça, pourquoi je ne penserais pas comme ça ».

Ce sont quelques éléments placés qui créent un effet boule de neige. Maintenant la grande question est de savoir à partir de quel pourcentage d’opposants l’opinion peut basculer. Car dans une structuration d’opinions il y a des personnes qui sont pour telle conviction, d’autres pour telle autre conviction, et des indécis qui constituent en général la majorité. Tout l’enjeu est de faire basculer les indécis.

A l’échelle individuelle, comment s’apercevoir qu’un mouvement est manipulé ?

C’est très difficile de le percevoir. Si les messages sont très stéréotypés, toujours les mêmes messages qui apparaissent, les mêmes visuels… Alors si c’est un visuel qui a circulé, il n’y a pas de souci, mais si un logo se répète partout, cela veut dire qu’il peut y avoir un groupe qui a tendance à pousser ce logo. En France par exemple, le mouvement des Gilets jaunes est né sur les réseaux sociaux avant de descendre dans la rue. C’est notamment Facebook qui a permis au mouvement de se structurer, de pouvoir créer une sociabilité entre des personnes qui n’étaient pas en relation au préalable.

Est-il possible de remonter à la source pour savoir si un mouvement est spontané ou si au contraire il a subi une manipulation ?

Il existe un certain nombre de plateformes qui permettent d’analyser et de comprendre où a démarré un mouvement, sur quel contenu ça a démarré, quels sont les sujets qui ont été porteurs, et qui a poussé les sujets. Il est techniquement possible de savoir d’où ça vient, à quel moment c’est arrivé, comment ça s’est développé et comment ça risque d’évoluer.

  • Les derniers articles

close