Skip to main content

Tech & santé mentale : mon réseau, ce bourreau ?

By 28 novembre 2024No Comments

Début novembre, la plateforme TikTok, très prisée des jeunes, a été accusée de graves manquements ayant conduit à des drames irréparables. Sept familles, réunies sous le collectif Algos Victima, attaquent en justice le géant chinois pour son rôle dans la dégradation de la santé mentale et physique de leurs enfants. Ce réseau social, qui promet pourtant un environnement « sûr et bienveillant », a exposé ces adolescents à des contenus toxiques glorifiant le suicide, l’automutilation et les troubles alimentaires.

Deux adolescentes, Charlize et Marie, se sont suicidées après avoir été aspirées dans une spirale d’algorithmes amplifiant leur mal-être. Charlize, par exemple, a vu son mal-être aggravé par une surenchère de vidéos dépressives et incitant à la scarification. Ses parents dénoncent un algorithme complice d’un engrenage destructeur.

D’autres victimes, comme Maele, âgée de 17 ans, témoignent avoir été poussées à l’automutilation et au suicide par des suggestions de contenus dangereux. Après plusieurs tentatives de suicide, elle dénonce TikTok comme catalyseur de son désespoir, offrant même des astuces pour se faire du mal.

Ces récits accablants appellent à une mobilisation urgente pour briser l’impunité de ces plateformes, les forcer à assumer leur responsabilité et protéger les enfants d’une exposition à des contenus létaux. L’inaction face à cette spirale infernale revient à accepter des drames évitables. Les plateformes telles que TikTok doivent rendre des comptes sur les mécanismes algorithmiques qui promeuvent ces contenus dangereux.

De plus en plus de travaux de recherche démontrent les impacts toxiques des réseaux sociaux sur la santé mentale comme par exemple les liens entre utilisations de ces plateformes et isolement social,

C’est aussi l’un des thèmes de recherche d’Alexandra Masciantonio, spécialisée en psychologie sociale qui présentait ces travaux sur l’usage des réseaux sociaux et la santé mentale lors de la troisième journée d’études de l’ARCOM. Elle s’intéresse notamment aux mécanismes de comparaison sociale sur les réseaux, les biais de positivité stimulés par des algorithmes qui poussent les publics jeunes à se comparer à d’autres en imaginant que leurs vies sont plus excitantes, “meilleures”, et engendrant de fait des mécanismes de repli sur soi ou de dévalorisation. C’est tout particulièrement le cas des algorithmes d’instagram, qui mettent en avant les contenus favorisant cette comparaison dite “ascendante”. S’il est difficile d’accéder à ces algorithmes qui construisent nos fils d’actualité, il serait en réalité davantage intéressant de se pencher sur l’expérience des utilisateurs et leur perception de ces algorithmes. Selon Alexandra Masciantonio, une étude approfondie de ces aspects pourrait nous donner des pistes de réponse pour l’éducation aux médias, elle-même essentielle à se prémunir contre les dangers de cette comparaison toxique.

Chaque plateforme a une façon propre de paramétrer les algorithmes, mais les problèmes qui en émergent se ressemblent. Une étude de la Fondation Panoptykon intitulée Les Algorithmes du Traumatisme 2 révèle que Facebook privilégie l’engagement des utilisateurs en exploitant leurs peurs et leurs angoisses, et que ses outils pour masquer les contenus indésirables sont inefficaces.

L’histoire de Joanna, une mère polonaise souffrant d’anxiété concernant la santé de ses proches, illustre ce problème. Ses troubles anxieux, exacerbés depuis la naissance de son enfant, trouvent leur origine dans des expériences personnelles difficiles. En cherchant du soutien, elle a rejoint des groupes Facebook consacrés à ces sujets, mais son fil d’actualité s’est rapidement rempli de contenus angoissants : cas médicaux inquiétants, accidents tragiques et maladies graves. L’algorithme de Facebook, s’appuyant sur ses comportements en ligne, lui propose des publications nocives, sachant qu’elles capteront son attention malgré l’impact négatif sur son bien-être.

Le fil d’actualité de Facebook se compose de trois types de contenu : des publications organiques, des publicités sponsorisées et des contenus suggérés par l’algorithme. Bien que Facebook offre des outils pour gérer ce que les utilisateurs voient (par exemple, masquer des publications ou ajuster les préférences publicitaires), ils ne permettent pas un contrôle réellement efficace. L’histoire de Joanna montre que, malgré ses efforts, les publications dérangeantes persistent.

L’étude conclut que les mécanismes de Facebook pour limiter les contenus troublants ne fonctionnent pas comme promis, laissant des utilisateurs comme Joanna piégés dans un cycle nocif d’interaction avec ces contenus anxiogènes.

La réglementation sur les services numériques (RSN) ou “Digital Service Act” (DSA) impose depuis février dernier des obligations encadrant les activités des plateformes, pour responsabiliser ses dernières, et protéger les utilisateurs en ligne contre la diffusion de contenus illicites ou préjudiciables. La facilitation des mécanismes de signalement pour les contenus illicites, la transparence sur les décisions de modération (avec notamment une base de données publique), l’explicabilité des algorithmes de recommandation, l’interdiction du ciblage publicitaire pour les mineurs, ou encore la possibilité de paramétrer nos systèmes de recommandations sont autant de dispositions qui doivent contribuer à faire des réseaux sociaux un endroit plus sûr pour les utilisateurs. Si cette réglementation est plus que bienvenue, son impact reste incertain. Les chercheurs Romain Badouard et Clément Le Ludec observent par exemple des incohérences entre la base de données publique sur les décisions de modération et le rapport de transparence, ce qui induit un risque de “data washing”. Tiktok annonce notamment dans son rapport 14,9% de contenus enlevés suite à signalement, alors que le taux s’élève à 70% au sein de la base de données publique.

La bonne volonté affichée des plateformes en ligne doit se traduire par des actions efficaces et  concrètes, et les autorités en charge du respect de la réglementation doivent être dotées de moyens pour veiller efficacement à ce que les plateformes n’omettent pas leurs responsabilités.