Ce que les plateformes (n’)ont (pas) fait pour combattre la désinformation Facebook, Instagram, Whatsapp, Youtube et Twitter

Une enquête menée par Intervozes conclut que les mesures prises par les plateformes sont insuffisantes et renforcent le pouvoir des plateformes digitales.

Traduction de Manon PELLIEUX pour Autres Brésils
Relecture : Lina BAAMARA

Le problème de la désinformation se trouve au cœur du débat politique depuis au moins quatre ans, avec l’arrivée au pouvoir de Donald Trump aux Etats-Unis grâce à une campagne gangrénée par les fake news et les stratégies de ciblage des utilisateurs à partir de l’usage illégal de leurs données personnelles. Au Brésil, les effets de cette stratégie se sont fait ressentir durant les élections de 2018 qui ont amené Jair Bolsonaro à la présidence, soutenu lui aussi par l’envoi automatisé des messages en masse et des mensonges. Malgré les scandales et les injonctions adressées aux plateformes numériques qui renforcent les principaux réseaux sociaux, les mesures prises par ces derniers ont été insuffisantes pour concrètement faire face au problème.

La conclusion de l’enquête Fake News : comment les plateformes font face à la désinformation (dont vous trouverez le résumé icihttps://intervozes.org.br/publicacoes/fake-news-como-as-plataformas-enfrentam-a-desinformacao/) a été diffusée cette semaine par Intervozes. Dans l’étude, nous avons répertorié et analysé les actions des principales plateformes de réseaux sociaux opérant au Brésil – Facebook, Instagram, WhatsApp, Youtube et Twitter – à partir de 2018, quand le phénomène était déjà considéré comme un problème à la portée mondiale, jusqu’au milieu de l’année 2020, prenant ainsi en compte les mesures prises dans le contexte de la pandémie de Covid-19, compte tenu de la large diffusion de fausses informations sur la maladie et les traitements possibles.

Nous avons questionné comment les plateformes abordent la désinformation : comment les contenus sont-ils modérés ; les informations et la transparence sont-elles promues ; et quelles mesures interfèrent dans la circulation de la fake news, avant qu’elle ne soit directement considérée comme telle. L’évaluation et les recommandations ont été formulées sur la base de règles sur la désinformation déjà existantes dans différents pays, mais aussi à partir de documents- [1] développés par des autorités internationales et les experts des droits de l’homme, tels que la Commission européenne et les rapporteurs de l’ONU et de l’OEA pour la liberté d’expression, ainsi que les propositions déjà élaborées et présentées par Intervozes [2] .

L’étude conclut que Facebook, Instagram, WhatsApp, Youtube et Twitter n’ont pas présenté de politique et de protocoles structurés pour endiguer les fake news, mais qu’ils ont seulement mis en œuvre des actions ponctuelles et réactives pour lutter contre le phénomène. Les limites de cette approche sont claires, à commencer par la définition-même de la désinformation. Aucune des entreprises n’a fait part d’un travail basé sur une conceptualisation claire. En politique et dans les communiqués de presse, ils mentionnent ce terme comme des informations fausses et trompeuses. Malgré la polysémie du concept et le débat intense qu’il suscite, au sein de la société comme dans les cercles académiques, son explicitation serait nécessaire afin d’assurer une transparence et de préciser quel contenu peut être précisément concernés par l’adoption de mesures d’analyse, de signalisation ou de sanctions.

Pour ne faire qu’empirer les choses, aucune de ces entreprises ne compte une structure spécifique en son sein pour aborder la question de la désinformation, ce qui peut rendre plus difficile encore la coordination des initiatives portées par chacune d’entre elles. Dans un contexte d’automatisation croissante des décisions des plateformes, les réponses données à nos questionnements n’ont pas été claires. Même les entretiens avec les représentants de ces plateformes n’ont pas permis de comprendre les critères de recours à des personnes physiques ou des algorithmes dans l’analyse et la prise de décision sur la modération des contenus. L’absence d’une approche et d’une organisation interne unifiées n’aide pas à résoudre le problème, bien au contraire. Elle laisse la place à des décisions unilatérales et peu claires, qui finissent par renforcer l’asymétrie en termes de connaissances et de pouvoir entre les entreprises et les utilisateurs.

En ce qui concerne la modération des fausses informations, la vérification des contenus, principalement effectuée par des agences extérieures, est une pratique courante dans une bonne partie des plateformes. Quand la vérification a lieu, les contrôles sont réalisés conformément à des catégorisations créées par les entreprises elles-mêmes, un principe directeur nécessaire pour éviter un traitement différencié par chaque organisme de contrôle. Mais naturellement, malgré ces précautions, la complexité des nuances entre un extrême et l’autre crée des risques d’évaluation douteuses. C’est la raison pour laquelle la vérification devrait s’appuyer sur des procédures d’évaluation efficaces et régulières pour atténuer les abus et les erreurs, ce qui en général n’est pas le cas.

Les contenus vérifiés sont signalés (flagged) de différentes manières par chaque plateforme qui réalise ce type d’action. Bien que l’efficacité de ce mécanisme soit discutable et qu’il y ait un risque que l’alerte attire l’attention sur le contenu, le signalement nous paraît être un outil nécessaire pour que l’utilisateur soit informé des potentiels problèmes propres à ce qu’il consulte. Mais associer d’autres politiques à cette action, comme l’éducation aux médias, pourraient inciter à une lecture plus critique des contenus sur internet et éviter la propagation de fake news.

Vous appréciez notre site ? Aidez-nous à en maintenir la gratuité !
Vous appréciez nos actions ? Aidez-nous à les concrétiser !

Soutenez Autres Brésils Faire un don

La pratique de la modération englobe aussi les annonces et les contenus sponsorisées. Dans ces cas-là, il existe des restrictions sur les contenus déjà considérés comme des fake news. L’extension des mesures relatives à la désinformation aux publicités sponsorisées est fondamentale. Car c’est là que réside la dimension économique de la production et de la diffusion des fausses nouvelles, une activité qui est exploitée par les « usines de contenus trompeurs » et aussi par les plateformes elles-mêmes, qui bénéficient de la facturation des contenus sponsorisés.

Pendant la majeure partie du temps de l’étude, les plateformes ont résisté à retirer les contenus désinformatifs, comme elles le font pour d’autres types de contenu (violent, préjudiciable, etc). Et ce, toujours sur la base des lignes directrices qu’ils ont défini de façon unilatérale. Mais cette posture a commencé à évoluer dans le contexte de la nouvelle pandémie de coronavirus, avec la profusion de fausses informations sur la maladie et sur les « formes miraculeuses » de guérison. Les risques graves sur la santé de la population ont poussé les entreprises à répondre de manière plus rapide et durable. Dans ce contexte, en cas de risque évident et de dommages graves, Intervozes juge raisonnable d’autoriser exceptionnelle des retraits de posts. A condition que ce retrait soit conforme à des règles de procédure, permettant la contestation, l’évaluation des ressources par des personnes physiques et la réparation en cas d’erreur dans la modération appliquée. Cependant, ces contraintes ne sont garanties par aucune des plateformes étudiées.

Réduire la portée d’une information, mesure la plus fréquente dans les cas de désinformation, finit presque par supposer une condition d’exclusion et apparaît comme une mesure à fort impact sur le contenu, mais son efficacité n’a pas non plus été prouvée. Les études mentionnées dans l’enquête pointent le fait que les actions, comme la limitation du nombre de renvois sur WhatsApp, réduisent la vitesse de propagation des fake news, mais en limiter la portée n’empêche pas les contenus désinformatifs de continuer à circuler. Pour y remédier, une mesure urgente serait l’approfondissement des recherches sur la production des fake news, en se concentrant sur le fonctionnement des groupes professionnels qui contournent les limites des plateformes, qui finissent par ne concerner que les utilisateurs ordinaires.

En ce qui concerne la promotion de l’information et la transparence, une partie des plateformes analysées mettent des informations supplémentaires à la disposition des utilisateurs, dans le cas de contenus vérifiés. Par exemple, des articles de leurs propres agences de vérification sont exposés avec des informations qu’elles ont recueillies sur le sujet en question. Un autre exemple est l’offre d’informations dites « contextuelles » ou de « sources fiables ». Des contenus journalistiques et officiels peuvent également être fournis. Dans le contexte de la pandémie déjà mentionné, plusieurs mécanismes ont été mis en place pour stimuler l’accès aux informations officielles sur le sujet, notamment en partenariat avec l’Organisation mondiale de la santé et les autorités sanitaires nationales.

En ce qui concerne les politiques d’informations sur la manière dont chaque agent traite le contenu désinformatif, l’enquête attire l’attention sur la faible transparence des plateformes. Les mesures existantes ne sont pas présentées de manière organisée et une bonne partie du travail de l’enquête a justement consisté dans la recherche et l’organisation de ces informations dispersées sur les sites officiels et sur les espaces d’« aide » ou de FAQ de chaque entreprise. Cette situation finit par créer des obstacles à une communication efficace avec les utilisateurs. Or cela pourrait être atténué par des notifications et d’autres formes de contact direct avec les personnes qui accèdent aux réseaux.

L’élément plus problématique en termes de transparence est peut-être le manque d’équilibre dans les actions annoncées. Une fois de plus, les informations sont rares et dispersées, de façon à ce que la mesure concrète des résultats soit limitée aux affirmations des entreprises, qui se rapprochent ainsi de promesses impossibles à prouver. Il n’existe pas non plus d’évaluation de l’efficacité des mesures ou de la régularité de la procédure. Ce mécanisme pourrait permettre aux utilisateurs de se défendre dans le cadre des processus de modération de contenu ou dans d’éventuelles sanctions sur leurs posts ou comptes, appliquées par les plateformes.

Après avoir détaillé et analysé chaque mesure prise durant plus de deux ans, nous avons conclu que les actions manquent encore d’organisation, de robustesse, de transparence et d’évaluation. Les mesures adoptées par les plateformes digitales ne se conforment pas non plus aux recommandations des organismes de défense des droits de l’homme. Alors que ces derniers exigent des actions de la part des plateformes, et un engagement dans la recherche de solutions, la posture des entreprises est, comme nous l’avons déjà mentionné, d’orienter le problème ou même de l’omettre. Des recommandations comme celle de l’Union Européenne mettent l’accent sur l’autorégulation, mais soulignent toujours la nécessité d’impliquer diverses institutions dans le processus. Alors même que nous avons constaté que ce sont uniquement des mesures élaborées par et pour les plateformes.

Les conséquences problématiques peuvent se voir au quotidien, où les cas de désinformation sont nombreux. Même lors des élections municipales de cette année, toutes les institutions brésiliennes, y compris le « TSE » (Tribunal Superior Eleirotal), laissent aux plateformes numériques la charge de la gestion concrète des fake news. Le public, même les experts, ne savent pas comment ces mesures sont adoptées et si elles donnent des résultats positifs. Cela montre que nous avons peu appris et peu agi au cours des deux dernières années (il ne faut pas oublier que même les procédures traitant des envois massifs durant la campagne Bolsonaro n’ont jusqu’à présent pas été jugés). Enfin, la nécessité de transparence et d’une procédure légale est signalée comme centrale dans tous les documents internationaux analysés par l’enquête, considérant que, à l’exception de la bibliothèque publicitaire de Facebook durant les élections, peu de choses ont été faites.

Il ne s’agit pas seulement de la mauvaise volonté des plateformes, mais aussi de l’économie politique qui les entoure. Actuellement, le web est marqué par la présence de monopoles digitaux qui opèrent avec l’objectif de capturer l’attention des utilisateurs, de collecter et de traiter leurs données personnelles. A terme, il s’agit de construire des profils pour diffuser des messages ciblés, comme la publicité ou la propagande politique. Ce modèle commercial favorise l’apparition de la désinformation. Bien qu’elles ne soient pas nées avec internet - les infox sont observables dans l’histoire des médias traditionnels, tels que la radio et la télévision - elles deviennent plus constantes, complètes, pénétrantes et rapides en raison des formes de production, de circulation, de médiation algorithmique et d’accès à l’information caractéristiques des plateformes numériques.

Notre dilemme est complexe, mais des choses doivent être faites à court-terme : définir clairement la désinformation, avec l’aide des données des organismes de défense des droits de l’homme sur ce sujet ; l’unification des mesures sur la désinformation en une politique spécifique et facile d’accès ; l’amplification de la communication avec la société sur ce thème, en utilisant en autres des mécanismes comme les notifications directes pour les utilisateurs ; l’inclusion de mesures contre la désinformation de façon transparente, régulière et accessible ; accroître la transparence notamment en ce qui concerne les algorithmes qui mettent ou non en avant certains contenus aux utilisateurs ; l’ouverture des données aux chercheurs ; la facilitation de l’accès aux données pour les investigations et les vérifications lorsque la désinformation est liée à toute infraction ; la garantie d’une procédure légale.

La solution consiste également à faire payer les modifications du modèle commercial adopté par les plateformes. Le problème de la désinformation doit être effectivement reconnu, publicisé et affronté par les plateformes elles-mêmes. Cela passe par la révision de la structure et de leur modèle économique, sinon elles continueront à offrir des solutions inadaptées à l’arrêt d’une forme de communication qui est devenue aujourd’hui l’un des principaux défis pour les démocraties du monde entier.

Voir en ligne : Le Monde Diplomatique Brasil : « O que as plataformas (não) fizeram para combater a desinformação »

[1L’étude a détaillé les documents suivant : Declaração conjunta sobre a Liberdade de Expressão e Notícias Falsas, Desinformação e Propaganda (ONU, OEA, OSCE e CADHP) ; Uma abordagem multidimensional à desinformação – Relatório do Grupo de Alto Nível independente sobre notícias falsas e desinformação online (Grupo de Alto Nível independente sobre notícias falsas e desinformação online – HLEG, na sigla em inglês) ; Combater a desinformação em linha : uma estratégia europeia (Comissão Europeia) ; Informe do Relator Especial sobre a promoção e proteção do direito à liberdade de opinião e de expressão (ONU) ; Recomendação N° 4 de 2018 (CNDH) ; Declaração Conjunta sobre Liberdade de Expressão e Eleições na Era Digital (ONU, OSCE e OEA).

[2Parmi les références d’Intervozes se trouvent le livre « Desinformação : crise política e saídas democráticas para as fake news » (2020) et le document “10 maneiras de enfrentar a desinformação

Agenda

L'équipe d'Autres Brésils est en train de préparer de nouveaux événements... restez attentifs !

Tous les événements

Suivez-nous

Newsletter

Abonnez-vous à la Newletter d’Autres Brésils !

Inscrivez vous

Entrez votre adresse mail ci-dessous pour vous abonner à notre lettre d’information.
Vous-pouvez vous désinscrire à tout moment envoyant un email à l’adresse suivante : sympa@listes.autresbresils.net, en précisant en sujet : unsubscribe infolettre.

La dernière newsletter

>>> La société civile brésilienne en mouvements

Réseaux sociaux

Flux RSS

Abonnez-vous au flux RSS