« Les fausses informations se propagent plus vite et plus facilement que le virus, et elles sont tout aussi dangereuses ».
Cette phrase, prononcée en 2020 lors de la pandémie COVID-19 par le Directeur général de l’Organisation Mondiale de la Santé (OMS)1 reste d’actualité. Elle s’applique aujourd’hui à l’épidémie Mpox (déclarée urgence de santé publique internationale), cible de fausses informations largement diffusées en ligne.
Les dangers d’une infodémie2 et la nécessité de la combattre sont tout particulièrement mis en lumière en temps de crise, mais cessent d’être au centre des préoccupations quand ladite crise s’estompe. La propagation des fausses informations en santé se produit chaque jour, sur des réseaux sociaux dont la structure même favorise la mise en avant de contenus nocifs.
DE LA FAUSSE INFORMATION SANITAIRE À LA DÉFIANCE DÉMOCRATIQUE
La diffusion des fausses informations en santé est largement amplifiée à l’ère du digital. Bien qu’elle ne soient pas un phénomène nouveau, on estime aujourd’hui que les fake news se propagent six fois plus vite que les informations fiables3.
L’apparition d’internet et des réseaux sociaux a entraîné une modification drastique dans notre rapport à l’information, c’est le « chaos informationnel contemporain4 ». L’impact de ces informations nocives peuvent dépasser les barrières du virtuel : ce qui est problématique en ligne a le potentiel de devenir extrêmement dommageable hors ligne (comme l’illustre l’assaut du Capitole États-Uniens en janvier 2021 qui a fait suite à la propagation massive de fausses informations sur les réseaux).
Les fake news en santé peuvent avoir des conséquences non seulement pour la santé des personnes et la santé publique (cf. affaire Wakefield), mais également pour la santé des démocraties.
Cette dernière a particulièrement souffert des fausses informations lors de la crise du COVID-19 durant laquelle la remise en cause de la parole scientifique et des décisions sanitaires de l’État ont alimenté bien des débats sur la toile. L’animosité virtuelle s’est traduite dans le monde réel, avec des saccages de centres de vaccinations (ici, ou là), et des « actions violentes, (…), qu’avaient planifiées les membres d’une mouvance complotiste d’extrême droite à l’encontre du ministre de la santé (…)5 ». Comme l’a justement exposé l’office parlementaire d’évaluation des choix scientifiques et technologiques, l’infodémie serait en effet « responsable d’une défiance accrue de la population et d’un affaiblissement de la cohésion sociale6 ». La remise en cause de la légitimité des institutions de l’État, de leurs décisions, est une menace particulièrement tangible durant les crises sanitaires.
Mais la fin d’une crise sanitaire ne signifie pas la fin des fake news, ni la disparition de leurs auteurs, ou diffuseurs. Un rapport7 expose par exemple que les sphères complotistes, extrémistes, actives lors de la pandémie du COVID-19 restent aujourd’hui actives sur X parmi la communauté des dénialistes climatiques. La propagation des fausses informations en santé perdure, continuant d’alimenter les différentes théories du complot (la théorie du complot réunissant le plus d’adeptes étant liée à la santé8) qui reprendront de leur influence lors de la prochaine crise.
Le double enjeu des fausses informations en santé (protection des personnes et de la démocratie) implique l’urgence de se saisir du problème en s’investissant efficacement dans l’application de réglementations, ceci avant la prochaine crise sanitaire.
TRAITER LE PROBLÈME À LA RACINE : EN FINIR AVEC LA DYNAMIQUE TOXIQUE DES RÉSEAUX SOCIAUX
La lutte contre la désinformation est de plus en plus complexe : au-delà des considérations juridiques relatives à la liberté d’expression, nous faisons face à des difficultés techniques de taille liées au modèle économique même des plateformes.
Les fausses informations se propagent en ligne de façon fulgurante du fait de l’architecture même des réseaux sociaux : leur modèle économique repose sur la mise en avant de contenus polémiques, hostiles, choquants, et toxiques9, dont les fake news font partie. C’est leurs algorithmes qui décident quels contenus seront plus ou moins visibles.
Les algorithmes des plateformes sont conçus pour mettre en avant les contenus les plus rentables, c’est-à-dire ceux qui suscitent le plus de réactions (clics, partages, likes, commentaires) : les contenus toxiques (car ils font appel à nos émotions). Pourtant selon certains observateurs, ce sont ces mêmes contenus qui affaiblissent la démocratie, notamment parce qu’ils polarisent l’opinion. David Chavalarias, directeur de l’Institut des Systèmes Complexes, indiquait ainsi qu’il « faut choisir entre le modèle économique des plateformes tel qu’il est actuellement et la démocratie10 » , et ajoutait qu’une « simple ligne de code modifiée sur le serveur central d’une entreprise privée peut littéralement changer la vie de milliards de personnes ».
Les réseaux sociaux ne sont pas les seuls responsables du problème, mais leur modèle exacerbe tellement la diffusion des fausses informations (et de fait, leur impact) que les initiatives telles que le fact checking ou la création de contenu éducatif sont insuffisantes pour gommer les effets dommageables des fake news. La montée des idéologies d’extrême droite ajoute de l’urgence au problème car ses partisans font partie des principaux diffuseurs de fausses informations. La réglementation des plateformes est de fait plus que jamais nécessaire. C’est dans cette logique que l’Union Européenne s’est engagée dans un travail de responsabilisation des plateformes avec des réglementations telles que le Digital Service Act.
LA RÉGLEMENTATION FACE AU TSUNAMI DE DÉSINFORMATION
Plusieurs textes du corpus juridique français peuvent servir de base légale pour sanctionner la diffusion de fausses informations. C’est par exemple le cas du code pénal qui condamne la diffusion de fausses alertes11, ou encore la loi sur la liberté de la presse qui sanctionne la publication de fausse nouvelle12, et la diffamation13. La récente loi dite « anti fake news » applicable en période électorale, sanctionne quant à elle les fausses informations susceptibles d’impacter les scrutins, en mentionnant explicitement les contenus publiés en ligne (une précision qui ne figure pas dans les dispositions précitées). Il existe également des dispositions applicables à la santé consacrées par la loi sur les dérives sectaires14, ou par certains articles du code de santé publique15.
Ces dispositions légales sont néanmoins confrontées à plusieurs limites, qui rendent difficile leur application. La pluralité des sources, les conditions requises pour la qualification juridique de l’infraction, l’équilibre à trouver entre liberté d’expression (qui inclut la liberté de mentir16) et protection de l’ordre public, ou encore la nature particulière des supports en ligne participent à cette difficulté d’application.
Pour lutter efficacement contre les fake news en ligne, la définition de ce que constitue un contenu sanctionnable est insuffisante. Il est nécessaire de réguler la structure des supports sur lesquels les fake news évoluent : c’est la dynamique même des plateformes en ligne qui exacerbe la propagation des contenus nocifs, et qui doit donc être régulée.
C’est l’ambition du Digital Service Act (DSA), un règlement européen qui responsabilise les plateformes sur leurs services et sur l’expérience qu’elles offrent aux utilisateurs en ligne.
Facilitation des signalements, mécanismes de plainte, exigences sur la transparence des outils de modération, limitation du ciblage publicitaire, ou encore possibilité pour les utilisateurs de paramétrer leur système de recommandation sont autant d’exigences nécessaires à un environnement en ligne sain. Par ces différentes dispositions, le DSA impose aux plateformes en ligne d’améliorer leur dynamique, et pousse à une modération plus efficace qui concerne tout type de contenu nocif (harcèlement, propos dégradants, propos discriminatoires ou désinformation).
L’enjeu aujourd’hui est de faire en sorte que ces géants du net se plient aux exigences posées par la réglementation, que leur modèle économique ne favorise plus ces contenus dommageables.
C’est la Commission Européenne qui a compétence exclusive dans la surveillance des très grandes plateformes (VLOPs) telles que X, Facebook, Instagram, ou encore TikTok. Le rôle des coordinateurs des services numériques nationaux (l’ARCOM en France) est de fait plus limité, mais pas moins important. Il est absolument essentiel que l’ARCOM soit suffisamment armé pour la surveillance des plateformes nationales dont il a la charge, et pour une collaboration efficace avec la Commission en ce qui concerne les VLOPs, et la production de codes de conduites ou protocole de crises renforçant les exigences du DSA. La France doit ainsi allouer les financements, capacités techniques, et pouvoirs nécessaires à cette autorité publique indépendante pour qu’elle s’inscrive en tant que pouvoir fort dans la lutte contre les fausses informations, et plus largement la régulation des plateformes en ligne.
Action Santé Mondiale encourage vivement à ce que la santé devienne un sujet clé dans la lutte contre la désinformation en ligne, et que la lutte contre la désinformation devienne une des priorités dans les politiques de santé publique. Il est essentiel que les pouvoirs publics assoient leur autorité dans la régulation des plateformes en ligne pour défendre aux mieux les intérêts des citoyen·nes.
1 Conférence de Munich sur la sécurité, 15 février 2020, discours complet disponible ici
2 Surabondance d’informations, dont certaines peuvent être trompeuses, voire dommageables (Communiqué de presse de l’OMS, “Lutter ensemble contre l’infodémie”, 29 juin 2020, disponible ici)
3 Salma Benchekroun. Les ”fake news” dans le domaine de la santé à l’ère du digital. Sciences pharmaceutiques. 2021. dumas-03426283 cite The spread of true and false news online | Science [Internet]. [cité 4 janv 2021].
4 Rapport de la Commission des Lumières à l’ère du numérique, janvier 2022, disponible ici
5 Rapport de la Commission des Lumières à l’ère du numérique, janvier 2022, disponible ici
6 Rapport de l’office parlementaire d’évaluation des choix scientifiques et technologiques, sur les effets indésirables des vaccins et les dernières évolutions des connaissances scientifiques sur la covid-19, 30 mai 2024, disponible ici
7 David Chavalarias, Paul Bouchaud, Victor Chomel, Maziyar Panahi. Les nouveaux fronts du dénialisme et du climato-scepticisme : Deux années d’échanges Twitter passées aux macroscopes. 2023. ⟨hal-03986798v2⟩
8 43% des français pensent que le ministère de la santé est de mèche avec l’industrie pharmaceutique pour cacher au grand public la réalité sur la nocivité des vaccins, Salma Benchekroun. Les ”fake news” dans le domaine de la santé à l’ère du digital. Sciences pharmaceutiques. 2021. dumas-03426283
9 Munn, L. Angry by design: toxic communication and technical architectures. Humanit Soc Sci Commun 7, 53 (2020). https://doi.org/10.1057/s41599-020-00550-7 / Bouchaud, P., Chavalarias, D. & Panahi, M. Crowdsourced audit of Twitter’s recommender systems. Sci Rep 13, 16815 (2023). https://doi.org/10.1038/s41598-023-43980-4
10 David Chavalarias (ISCP-IDFP), Table ronde sur les influences étrangères dans l’espace numérique, Commission d’enquête sur les politiques publiques face aux opérations d’influences étrangères, 4 juin 2024
11 Article 322-14 du code pénal
12 Article 27, Loi du 29 juillet 1881 sur la liberté de la presse
13 Article 29, Loi du 29 juillet 1881 sur la liberté de la presse
14 Provocation à l’abandon/abstention de soins, incitation à l’adoption de pratiques risquées pour la santé, exercice illégal de la médecine ou de pratiques commerciales trompeuses commis via internet
15 Articles R4127-13, R4127-14, R4127-31 et R4127-39 du code de santé publique
16 Cour de cassation, Civ. 1ère, 10 avril 2013, pourvoi n°12-10177