France World

Faut-il censurer la mauvaise science sur les réseaux sociaux ?

Faut-il censurer la mauvaise science sur les réseaux sociaux ?

De Rachel Schraer
Journaliste santé et désinformation

Publié
il y a 2 jours
Partager la page

À propos du partage

Rubriques connexes

Pandémie de Coronavirus
Source d’images, Getty Images

Comment résolvez-vous un problème comme une mauvaise information ?

Lorsqu’il s’agit de comprendre la science et de prendre des décisions en matière de santé, cela peut avoir des conséquences vitales ou mortelles.

Les personnes dissuadées de se faire vacciner suite à la lecture d’informations trompeuses en ligne ont a fini à l’hôpital ou même est mort.

Et des affirmations inexactes ou complètement inventées sur la 5G et les origines de Covid-19 ont été liées à la violence et vandalisme.

Mais supprimer complètement des informations peut ressembler beaucoup à de la censure, en particulier pour les scientifiques dont la carrière est basée sur la compréhension que les faits peuvent et doivent être contestés, et que les preuves changent.

La Royal Society est la plus ancienne institution scientifique au monde en activité continue, et elle tente de relever les défis posés par nos nouveaux modes de communication de l’information.

Dans un nouveau rapport, il déconseille aux entreprises de médias sociaux de supprimer des contenus « légaux mais préjudiciables ». Au lieu de cela, selon les auteurs du rapport, les sites de médias sociaux devraient ajuster leurs algorithmes pour éviter qu’ils ne deviennent viraux – et empêcher les gens de gagner de l’argent avec de fausses déclarations.

Mais tout le monde n’est pas d’accord avec ce point de vue – en particulier les chercheurs experts dans le suivi de la propagation de la désinformation en ligne et de la façon dont elle nuit aux gens.

Le Center for Countering Digital Hate (CCDH) soutient qu’il existe des cas où la meilleure chose à faire est de supprimer un contenu lorsqu’il est très préjudiciable, clairement faux et se propage très largement.

L’équipe pointe vers Plandémie – une vidéo qui est devenue virale au début de la pandémie, faisant des déclarations dangereuses et fausses conçues pour effrayer les gens des moyens efficaces de réduire les dommages du virus, comme les vaccins et les masques, et a finalement été retirée.

Les sociétés de médias sociaux étaient mieux préparées pour la suite de la vidéo Plandemic 2, qui est tombée à plat après avoir été restreinte sur les principales plateformes, n’ayant rien à voir avec la même portée que la première vidéo.

« C’est une question politique… quel équilibre voyons-nous entre les libertés individuelles et certaines formes de restrictions sur ce que les gens peuvent et ne peuvent pas dire », déclare le professeur Rasmus Kleis Nielsen, directeur de l’Institut Reuters pour l’étude du journalisme à l’Université d’Oxford. .

Le professeur Nielsen reconnaît que, bien qu’il s’agisse d’une part relativement faible de l’alimentation des médias, la désinformation scientifique peut entraîner des dommages disproportionnés.

Mais, ajoute-t-il, étant donné que le manque de confiance dans les institutions est un grand moteur de désinformation : « J’imagine qu’il y a pas mal de citoyens qui verraient leurs pires soupçons confirmés sur le fonctionnement de la société, si les institutions établies prenaient beaucoup plus de mains -sur le rôle dans la limitation de l’accès des personnes à l’information. »

Source d’images, Getty Images

Légende,

Une manifestation anti-vaccin

« Plus difficile à atteindre »

Faisant écho à cette préoccupation, la Royal Society déclare : « La suppression de contenu peut exacerber les sentiments de méfiance et être exploitée par d’autres pour promouvoir un contenu de désinformation. » Cela « peut causer plus de mal que de bien en conduisant le contenu de désinformation… vers des coins d’Internet plus difficiles à aborder ».

Le fait que ces coins soient « plus difficiles à atteindre », cependant, fait sans doute partie du problème. Cela réduit le risque qu’une personne qui n’est pas déjà engagée dans des croyances potentiellement nuisibles et qui ne les recherche pas y soit exposée par hasard.

Certains des manifestations violentes motivées au moins en partie par des complots ont leur origine non pas dans des recoins obscurs d’Internet, mais sur Facebook. Et il y a peu de preuves claires que la suppression de contenu pousse les gens plus loin dans des croyances nuisibles.

Changer l’algorithme

La désinformation scientifique n’est pas nouvelle.

La croyance erronée en un lien entre le vaccin ROR et l’autisme provenait d’un article universitaire publié (et plus tard rétracté), tandis que les croyances répandues et non fondées sur les méfaits de la fluoration de l’eau étaient motivées par la presse écrite, les groupes de campagne et le bouche à oreille.

Ce qui a changé, c’est la vitesse à laquelle les faux faits circulent et le grand nombre de personnes qui peuvent finir par les lire.

Plutôt que de supprimer du contenu, l’un des moyens suggérés par les auteurs du rapport pour lutter contre la désinformation est de le rendre plus difficile à trouver et à partager, et moins susceptible d’apparaître automatiquement sur le flux de quelqu’un.

Cette vidéo ne peut pas être lue

Pour lire cette vidéo, vous devez activer JavaScript dans votre navigateur.

Légende média,

BBC Reality Check répond à vos préoccupations concernant les vaccins

Ceci, a expliqué le professeur Gina Neff, spécialiste des sciences sociales à l’Oxford Internet Institute, était de « s’assurer que les gens peuvent toujours dire ce qu’ils pensent » – ils ne sont tout simplement pas garantis d’avoir un public de millions de personnes.

« Ils peuvent toujours publier ces informations, mais les plateformes n’ont pas à les rendre virales. »

Vérification des faits

L’Institut pour le dialogue stratégique (ISD), un groupe de réflexion qui surveille l’extrémisme, souligne qu’une part importante de la désinformation repose sur l’appropriation et l’utilisation abusive de données et de recherches authentiques.

« C’est parfois plus dangereux que de fausses informations pures et simples, car cela peut prendre beaucoup plus de temps à démystifier en expliquant comment et pourquoi il s’agit d’une mauvaise lecture ou d’une mauvaise utilisation des données », a déclaré son porte-parole.

C’est là qu’intervient la vérification des faits – un autre outil soutenu par la Royal Society.

L’une des informations les plus courantes sur les vaccins au cours de l’année écoulée – que la BBC a vérifié à plusieurs reprises – était la notion que les gens sont blessés en grand nombre par le jab. Cette affirmation est basée sur une mauvaise interprétation des chiffres réels.

Dé-plateforme des individus

L’ISD affirme que des recherches ont montré qu’un petit groupe de comptes diffusant des informations erronées avait une « influence disproportionnée sur le débat public sur les réseaux sociaux ».

« Beaucoup de ces comptes ont été étiquetés par les vérificateurs des faits comme partageant du contenu faux ou trompeur à plusieurs reprises, mais restent en ligne. »

La Royal Society n’a pas enquêté sur la suppression des comptes des « influenceurs » qui sont des diffuseurs particulièrement prolifiques de désinformation nuisible.

Mais cela est considéré comme un outil important par de nombreux experts en désinformation, et la recherche sur État islamique et l’extrême droite suggère que cela peut réussir.

Lorsque David Icke, un diffuseur prolifique de désinformation sur Covid ainsi que de théories du complot antisémites, a été retiré de YouTube, les recherches du CCDH ont révélé que sa capacité à atteindre les gens était considérablement réduite.

Alors que ses vidéos sont restées sur la plate-forme alternative d’hébergement de vidéos BitChute, leurs vues sont passées de 150 000 en moyenne avant l’interdiction de YouTube à 6 711 après. Sur YouTube, 64 de ses vidéos avaient été visionnées 9,6 millions de fois.

Recherche de l’Université de Cardiff, a constaté que la dé-plateforme de Kate Shemirani, une ancienne infirmière et prolifique prolifique de désinformation sur Covid, a diminué sa portée à court terme.

Cette vidéo ne peut pas être lue

Pour lire cette vidéo, vous devez activer JavaScript dans votre navigateur.

Légende média,

« Une partie du problème est que les modèles actuels de dé-plateforme doivent être développés. Il ne suffit pas de supprimer un contenu ou un petit nombre de comptes », explique l’un des auteurs de l’article, le professeur Martin Innes.

Les recherches sur le crime organisé et la lutte contre le terrorisme montrent la nécessité de perturber l’ensemble du réseau, dit-il.

Mais il pense que « ce niveau de sophistication n’est pas encore intégré » dans la manière dont nous luttons contre la désinformation qui pourrait mettre les gens en danger.

Rubriques connexes

Liberté d’expression
Vaccins contre le coronavirus
Fausses nouvelles
La censure
Pandémie de Coronavirus

www.bbc.com

L’article Faut-il censurer la mauvaise science sur les réseaux sociaux ? est apparu en premier sur zimo news.