Skip to main content

#Disinfo2024 – Santé et Climat : les cibles favorites de la désinformation, un même défi à relever

By 17 octobre 2024octobre 21st, 2024No Comments

 « Il ne faut pas admirer le problème, il faut le traiter ».

 

Cette phrase a été prononcée à propos de la désinformation en ligne, par la Ministre des Affaires Étrangères Lettonne lors de la session d’ouverture de la DisinfoLab conference qui s’est déroulée à Riga les 9 et 10 Octobre dernier.

Cette dernière réunit chaque année des chercheurs, des journalistes, des organisations de la société civile (OSC), mais aussi des représentants de gouvernements et d’autorités publiques, et un certain nombre d’entreprises pour discuter des enjeux s’articulant autour de la désinformation. La cybersécurité, l’impact des fausses informations sur les sociétés et les personnes, et les implications du Digital Service Act pour les plateformes en ligne sont autant de sujets qui ont été couverts.

Cette conférence a été l’opportunité d’approfondir nos réflexions sur l’impact des fausses informations en santé sur la santé des personnes et des démocraties.

La session “tendances désinformatrices préoccupantes : préserver la santé publique et l’action en faveur du climat1 a été particulièrement enrichissante.

La discussion faisait état des techniques de désinformation utilisées et du type de narratif existant sur les thématiques de la santé et du climat. La connexion entre ces deux thématiques est de plus en plus documentée, et elles souffrent des mêmes techniques de manipulation de l’information. Ce sont souvent les mêmes acteurs qui propagent des fausses informations en exploitant l’actualité pour semer le doute.

Les contenus des messages ne sont pas dangereux en tant que tel, mais c’est la façon dont ils sont mis en avant sur les plateformes (notamment par les algorithmes de recommandation, ou les pubs) ou encore le type de narratif utilisé qui les rend dommageables. Ainsi, plus que de réguler les contenus, il s’agit de réguler les mécanismes de diffusion. L’urgence d’agir réside dans le fait que ce qui est dommageable en ligne peut devenir extrêmement préjudiciable hors ligne.

Rocío López Iñigo, coordinatrice par intérim de l’Alliance pour la Riposte contre l’Infodémie en Afrique (AIRA), a ouvert la conversation, en exposant l’impact négatif que les fausses informations en santé diffusées en ligne peuvent avoir dans le réel. L’AIRA souligne ainsi que l’infodémie se propageant en ligne cause des dommages concrets hors ligne : un écosystème local d’information affecté (dysfonctionnement), une hésitation voire résistance à la vaccination, et une méfiance à l’égard des acteurs de la santé publique. Ce sont ces mêmes constats qui ont été faits lors de la crise de COVID-19, et qui se répèteront très certainement à chaque nouvelle crise sanitaire, puisque comme l’a rappelé Rocío López Iñigo ; “les désinformateurs utilisent les contextes socio-économiques pour remettre en question la prise de décision en matière de santé”.

Pour lutter contre ces effets, plus particulièrement lors d’une infodémie2, la coordinatrice de l’AIRA a insisté sur l’importance de comprendre l’écosystème informatif (identification des acteurs pour s’adresser aux communautés), les dynamiques entre les différents groupes à risques et les priorités de santé publique, et pour le plus essentiel, de comprendre les dynamiques de confiance. Il ne s’agit pas tant des contenus, mais d’aller au-delà en ayant une compréhension des dynamiques qui favorisent la désinformation, et de celles qui peuvent la contrer. Après la compréhension, l’action est possible, et elle sera davantage efficace. C’est ainsi que l’AIRA a mis en place des outils pour soutenir l’implication des médias, la production de preuve, de contenu dit de “debunk3” et “prebunk4”, la contribution à la stratégie de communication nationale, formés à la gestion de “crises infodémiques”, collaborer la communauté de lutte contre la désinformation5/mésinformation6 (OSC, agences de fact-checking, leaders religieux…).

Aleksandra Atanasova (directrice de l’analyse du renseignement en source ouverte (OSINT) à Reset Tech) et Pragnya Senapati (directrice recherche et politiques à Ripple Research) ont présenté tour à tour leur travaux de recherche portant sur certaines techniques de mise en avant de faux contenus, et sur lesquelles les plateformes pourraient agir directement, conformément aux exigences du DSA. Ces exemples concernent la santé et le climat, deux sujets où l’on peut retrouver les mêmes tactiques de désinformation. Comme l’a souligné Pragnya Senapati “la désinformation ne fonctionne pas en silos, et c’est là qu’elle puise son pouvoir”.

Reset Tech a mené un travail sur les publicités promouvant des médicaments douteux (ou “dubious drugs”), exposant comment les émetteurs de ces publicités exploitent les plateformes en ligne (dont les réseaux sociaux) pour toucher les consommateurs et les inciter à l’achat de ces produits de santé douteux. L’organisation a ainsi collecté plusieurs dizaines de milliers de publicités, sur des dubious drugs, issues de facebook (35 000), google (100s), youtube, ou encore issues de pages dédiées (2800), touchant un large nombre d’utilisateurs. Ces remèdes douteux concernent tout type de maux (cystite, dysfonctionnement érectile, incontinence…) et ont pour point commun leur caractère fallacieux ainsi que les techniques de mise en avant. Utilisation abusive et détournement de logos, usurpation d’identité avec la mise en scène de figures médicales, fausses évaluations de consommateurs, titres racoleurs… sont autant de tactiques utilisées pour tromper le consommateur et l’inciter à l’achat.

Alors que l’article 34 du DSA mentionne expressément les effets négatifs sur la protection de la santé publique comme étant un risque systémique, Reset Tech dénonce le manque de moyens mis en place par les plateformes pour lutter contre des publicités mensongères (manque de transparence, 88% des pages fallacieuses toujours actives…), pourtant dangereuses pour la santé des personnes.

Ripple Research a exposé les techniques de narratifs utilisant les émotions des utilisateurs en ligne pour influencer leur opinion, et éventuellement leurs comportements. Ces récits sont problématiques, puisqu’ils sont à la fois “désordonnés mais puissants, et complexes à maîtriser”.

Prignya prend pour exemple les récits autour de l’alimentation, qui ont un impact sur le climat ; les émotions sont utilisées pour faire changer le comportement des personnes, ou tout du moins faire croire à des théories qui ne sont en vérité pas avérées.

La technique du “headwashing” (lavage de cerveau) insistera par exemple sur l’essentialité des produits d’origine animale dans notre alimentation pour faire croire à un danger s’il y a réduction ou suppression de la viande dans nos régimes alimentaires. Ou encore la technique du “Soy Boy” (garçon soja) qui moque les hommes se nourrissant d’aliments à base de soja, car cela les rendrait “moins homme” et “plus femme” du fait du taux d’oestrogènes présents dans le soja.

Ces narratifs ne sont pas illicites, mais ils participent à la manipulation de l’opinion, qui à terme peut causer des conséquences sur nos sociétés, dans le réel. Le même type de technique autour du narratif (utiliser les émotions plus que les informations) existe en santé, et peuvent avoir de graves conséquences sur les personnes.

Cette session a été particulièrement éclairante sur les techniques en ligne qui peuvent influencer les comportements hors ligne, et a permis de confirmer certaines des premières réflexions d’Action Santé Mondiale. Les récits trompeurs toxiques pour notre santé, ou ceux remettant en cause la lutte pour le climat impactent tous deux nos démocraties (comme exposé dans notre article du 9 octobre dernier). La lutte contre la désinformation en ligne sur le climat ou la santé relève d’un même d’un même défi : travailler pour une structure moins toxiques des plateformes, lutter contre des “disinformers” qui propagent règulièrement des fausses informations. Il y a nécessité de s’investir sur les questions de désinformation afin de préserver non seulement la santé des personnes, mais aussi la santé de nos démocraties.

Nous retenons que pour faire face à la vague de désinformation, il est crucial de comprendre les dynamiques et l’écosystème dans lequel évolue les fausses informations (la structure des plateformes donc), et d’aller au delà des contenus in concreto pour traiter le mouvement désinformateur dans sa globalité. Cela passe par une application stricte du DSA, et par des moyens  mis en place par les autorités nationales pour s’assurer de la protection des personnes en ligne, et la responsabilisation des plateformes qui va de paire avec l’application du DSA.


1 “Concerning disinformation trends : safeguarding public health and climate action”

2 Diffusion large et rapide sur Internet de fausses rumeurs, parfois incongrues, si ce n’est dangereuses, sur un sujet (maladie, particulièrement)

3 Démentir une fausse information publiée

4 Réfuter un futur mensonge en mettant en évidence les techniques utilisées pour tromper les gens

5 Action intentionnelle de fausser l’information en donnant une image déformée de la réalité

6 Fait de diffuser une fausse information sans avoir de mauvaises intentions