top of page
  • Photo du rédacteurIDS PARTNERS

Comment la fin du faux à bas coût rebat les cartes des campagnes d’influence

Dernière mise à jour : 7 déc. 2021

Cet article est tiré de l’intervention de Jean-Baptiste Delhomme et Damien Liccia, associés d’IDS Partners, lors du séminaire Cyberdéfense et Stratégie, organisé pour le COMCYBER par Avisa Partners au Cercle national des Armées le 6 décembre 2021.


Le durcissement des conditions générales d’utilisation des grands réseaux sociaux ont rendu les opérations d’influence numériques plus difficiles et plus coûteuses à opérer. Celles-ci tendent désormais à se complexifier et à se technologiser afin d’échapper à la surveillance des plateformes et gagner en capacité de persuasion.


Sommés par les autorités américaines depuis le choc de l’élection présidentielle de 2016 d’intervenir de plus en plus sur les contenus qui transitent sur leurs plateformes, les grands acteurs du web ont progressivement mis en place de nombreuses mesures pour contrecarrer les opérations d’influence. Outre la quasi-fermeture de l’API de Facebook et l’encadrement plus strict de la publicité politique sur les réseaux sociaux, utilisés en leur temps par Cambridge Analytica pour micro-cibler les électeurs américains, les grands réseaux sociaux ont également rendu quasiment impossible l’anonymat en ligne - soit en durcissant les conditions d’inscription (nécessitant par exemple de renseigner un numéro de téléphone de certains opérateurs), soit en collaborant davantage avec la justice et les autorités. Autre levier : un renforcement de la modération passant par la suspension de compte utilisant certains mots clefs ou le « shadow banning » de certains utilisateurs, soit la restriction de la visibilité de leurs contenus à leurs seuls abonnés.


Un relèvement du coût d’entrée des opérations d’influence numérique



Du fait de ces restrictions, des outils et certaines des technologies perçues pendant un temps comme “l’avenir du faux” sont ainsi devenues caduques ou ont été fortement restreintes. C’est notamment le cas des bots Twitter tout comme de certains outils (comme Tweetdeck et autres solutions similaires) permettant d’automatiser la publication de contenus via plusieurs comptes. Ces différents gardes fous mis en place par les plateformes ont rendu beaucoup plus difficiles certaines opérations qui étaient autrefois à la portée de presque n’importe qui, comme « l’astroturfing », c’est-à-dire la simulation de mouvements d’opinion spontanés via la création de faux comptes.


Cette situation d’encadrement plus strict nécessite donc soit des moyens plus importants, soit la mise en œuvre de stratégies de contournement. Du point de vue de la compétition instituée entre les journalistes et les autres acteurs du débat public (le fameux “journalisme citoyen”), ce changement de contexte représente une revanche des « gate keepers ». Désormais plus interventionnistes et appelés à statuer sur la véracité des informations circulant sur les réseaux sociaux, journalistes, fact-checkers et plateformes (re)deviennent arbitres du débat public et (re)prennent le pouvoir sur la « foule numérique ».


Dans un univers de plus forte contrainte, où les moyens se raréfient quand les fins demeurent virtuellement illimitées, la stratégie reprend la primauté sur l’outil et la technologie. Pour contourner les restrictions des plateformes et retrouver des capacités de manœuvre, cinq stratégies au moins sont généralement adoptées pour brouiller les pistes.


Échapper à la modération en se réfugiant sur des plateformes alternatives


La première solution face à un changement d’environnement consiste à se retirer des réseaux sociaux où s’exerce de la censure et de se doter de ses propres plateformes à l’instar notamment de Donald Trump ; l'ancien président américain ayant choisi de créer sa propre plateforme, Truth Social, après avoir été banni de Twitter et Facebook.


Ces réseaux alternatifs (Gab, Parler, Telegram, Discord, Odyssee, Gettr…) sont particulièrement appréciés des activistes et des groupuscules faisant l’objet d’une censure systématique ou d’une surveillance policière étendue aux réseaux sociaux, à l’instar de l’Etat islamique, de certains militants violents notamment issus de l’ultra-droite ou de l’écologisme radical. Ceux-ci peuvent ainsi continuer de créer et d’animer des communautés numériques et de diffuser largement du contenu – parfois pénalement passible de poursuites judiciaires.



Cette stratégie n’est pas sans limite. Les gisements d’audience des réseaux alternatifs sont largement inférieurs à ceux des grandes plateformes (40 millions de Français étant présents sur Facebook, 16,8 millions sur Twitter). Les profils des utilisateurs sont aussi potentiellement moins diversifiés. Le risque est donc pour ces groupes de ne plus parler qu’à des convaincus et de perdre l’effet de levier que leur procuraient les réseaux sociaux comme Twitter pour mettre certains sujets à l’agenda (via par exemple les trending topics) ou gagner en visibilité.


Reste la possibilité de coordonner des actions (physiques et numériques – par exemple du « swarming ») sur des espaces restreints tout en maintenant une présence sur Facebook et Twitter – ce qui nécessite naturellement un plus grand investissement et plus de travail pour animer différentes communautés afin de compenser l’éclatement des présences.


Rester sur les grandes plateformes en exploitant les failles de la modération


Les plateformes peuvent adopter trois grands types de modération pour faire la chasse aux contenus d’influence.

  • Tout d’abord, une modération humaine, coûteuse, souvent sous-traitée dans des pays en voie de développement à des équipes parfois en sous-effectif, qui présentent souvent des différences culturelles béantes avec le pays d’origine des contenus - ce qui constituent autant de facteurs qui obèrent significativement son efficacité ;

  • Le deuxième mode de régulation des contenus, la modération par les utilisateurs qui signalent les contenus, présente le double désavantage d’exposer à la fois certains d’entre eux à des contenus choquants, et peut également être retournée à des fins d’influence (ce qu’on appelle le « striking » : c’est-à-dire le fait de signaler en masse un contenu pour le faire supprimer par une plateforme) ;

  • Enfin, une modération algorithmique qui se perfectionne depuis quelques années. A travers un certain nombre de patterns, les plateformes identifient des « comportements problématiques » ou filtrent les messages par mots clefs (par exemple : série d’interpellation par un compte nouvellement créé sans numéro de téléphone, usage de mots clefs à connotation racistes, relais de liens vers des sites identifiés comme des pourvoyeurs de fausses informations…).



A cette liste, il convient également d’ajouter la surveillance des chercheurs en désinformation et de sociétés privées spécialisées, qui participent aussi à la détection de pages, de profils et de groupes créés à des fins d’influence - de manière plus ou moins automatisée et immédiate. Ces différentes solutions présentant chacune leurs avantages et leurs inconvénients, les grandes plateformes recourent en général à une combinaison de plusieurs types de modération.


Pour contourner ces différents types de modération, certains acteurs misent sur de nouvelles méthodes pour flouer les algorithmes et la surveillance des modérateurs et des chercheurs. Sur Facebook, l’usage de copier-coller plutôt que du partage de liens ou des partages entre pages – ce qui est très fréquent en Afrique –, de contenus non textuels (images, vidéos, son) échappant aux algorithmes ou encore d’un langage codé (allusions, lettres remplacées par d’autres, noms de code, ironie) pour échapper aux filtres des mots clefs.


Cette stratégie permet de maintenir une présence sur les grands réseaux généralistes. Toutefois, en gagnant en visibilité, ces contenus et ces dispositifs se risquent à être repérés et investigués.


Inonder les plateformes d’un flux de contenu pour toucher la plus grande audience possible


Autre stratégie, la production massive de contenus et leur diffusion via des canaux décentralisés, moins sensibles à la censure qu’un seul dispositif, disposant par lui-même d’une audience conséquente. En s’additionnant, ces contenus visent à atteindre une audience significative, notamment en exploitant une logique de “longue traîne”.


Produire du contenu est cependant coûteux, a fortiori sur des échelles importantes ou dans des pays étrangers, et ce y compris pour des organisations importantes de type étatique. Pour limiter les coûts et rendre la stratégie tenable sur le long terme, celle-ci suppose une organisation adaptée ou l’adoption de techniques adéquates.

  • L’utilisation de certains logiciels déjà disponibles sur le marché peut permettre de créer du contenu en masse, à l’instar des générateurs de texte automatique. Cette technologie reste cependant balbutiante pour le moment, car elle nécessite souvent de la relecture ou un angle pour être efficace ;

  • La réutilisation et le recyclage de certains contenus produits par d’autres acteurs (via du copié collé par exemple) ;

  • L’usage de digital labor pour produire en série des contenus dans des pays de même langue, où le prix de la main d’oeuvre est moins coûteux.


Les organisations militantes ou affinitaires, qui peuvent capitaliser sur une audience fortement engagée, peuvent aussi déléguer une partie de la production de contenus à leurs militants ou à leurs adhérents - en les coordonnant par exemple via une boucle de messagerie privée. Cette logique, qui renvoie à la notion de « slacktivisme », permet de faire de l’influence par le contenu avec un investissement minime.


Surenchérir technologiquement avec les plateformes


Il reste encore possible, à condition de surenchérir technologiquement avec les plateformes, de déjouer les algorithmes des réseaux sociaux pour automatiser certains comportements (création de bots et paramétrage de comportements semi-automatisés), récupérer de la données (scraping) ou rester relativement anonyme. De cette manière, certains acteurs peuvent continuer d’exploiter certaines fonctionnalités des réseaux sociaux désormais rendues inaccessibles aux autres, leur permettant d’acquérir rapidement un avantage compétitif.


Cette stratégie, qui relève du hacking, se trouve battue en brèche continuellement par les mises à jour des plateformes, peut-être comparée à la surenchère dans le domaine de la criminalité entre policiers et cambrioleurs - ces derniers se devant d’innover constamment pour prendre l’avantage, avant d’être rattrapés par de nouveaux systèmes de sécurité plus perfectionnés dans un second temps. Cette dimension est du reste commune à la cybersécurité pure et dure.


L’autre pendant de cette stratégie d’investissement technologique consiste à investir davantage dans des contenus plus persuasifs pour maximiser leur efficacité, tant en termes de viralité que de capacité à convaincre. C’est notamment le cas des « deep fakes », dont le coût de production tend à décroître, grâce aux solutions désormais commercialisées par certains acteurs du marketing digital et du SAV pour automatiser et humaniser la relation client en ligne, comme le notait Christophe Deschamps dans son article sur les techniques du faux.


Ces méthodes restent encore globalement l’apanage d’officines dotées de moyens importants – et s’inscrivent dans la tendance d’une augmentation globale du coût d’entrée pour les opérations d’influence numérique.


« Sortir du faux » en investissant sur des assets réels : influenceurs, médias d’influence et think tanks


Certains acteurs prennent acte de la complexité croissante du faux et/ou de ses limites et réinvestissent dans des dispositifs d’influence plus classique et leur dimension numérique :

En contrepartie de certaines limitations tactiques (le fait de devoir assumer jusqu’à un certain points les contenus qui transitent par lui), ces dispositifs d’influence peuvent recourir à des techniques d’influence classiques et se rouvrir un accès à des fonctionnalités des réseaux sociaux, notamment l’usage de l’outil de sponsorisation publicitaire à des fins de microciblage notamment.


Pourquoi les logiciels de veille et de social listening doivent faire leur révolution


Par ailleurs, ce tour d’horizon des nouvelles pratiques d’influence que nous venons d’esquisser porte en lui-même un certain nombre de constats qui doivent être désormais intégrés dans les grilles de lecture de la veille. En premier lieu, il est désormais fondamental que les stratégies d’influence se bâtissent aujourd’hui contre les algorithmes des réseaux sociaux et contre la surveillance des modérateurs et des chercheurs. En raison de ce nouvel état de fait, les campagnes d’influence numérique ne sont plus intelligibles qu’à l’aune d’une grille de lecture stratégique.


En matière de contre-influence, il devient indispensable de couvrir beaucoup plus d’espaces sociaux, y compris certains espaces semi-fermés, pour lutter contre l’extrémisme violent et la désinformation qui se développent désormais en dehors de Twitter. Les analystes doivent également sortir d’une logique « reputation-centric » en dépassant la simple analyse des messages échangés sur les plateformes sur la base de mots clefs pour étudier d’autres paramètres qui échappe à la seule analyse sémantique (intensité, proximité avec d’autres acteurs, stratégies de contournement des algorithmes…).


Retrouvez ci-dessous notre présentation :

Présentation ComCyber x IDS Partners - 06_12
.pdf
Download PDF • 6.00MB

165 vues
bottom of page