Meta, la maison mère de Facebook et Instagram, modifie radicalement sa stratégie en matière de modération de contenu. En supprimant son programme de vérification des faits par des tiers, l’entreprise adopte un modèle participatif inspiré de la plateforme X d’Elon Musk. Mais ce changement s’accompagne de controverses et d’enjeux majeurs.
Désinformation : Meta mise sur ses utilisateurs pour surveiller les contenus
Meta a annoncé la fin de son programme de vérification des faits tiers, une initiative qui avait pour but de lutter contre la désinformation sur ses plateformes. À la place, un système de « Notes Communautaires », basé sur les contributions des utilisateurs, sera progressivement déployé, à l’image de celui de X (anciennement Twitter). Ce choix stratégique soulève des questions sur les intentions réelles de Meta et les impacts possibles sur la qualité de l’information en ligne.
Un système participatif pour « plus de liberté d’expression »
Meta a expliqué ce choix en invoquant la nécessité de restaurer la « liberté d’expression » sur ses plateformes. Selon Mark Zuckerberg, directeur général de Meta, le programme précédent avait créé “plus de méfiance qu’il n’a apporté de solutions ». Lors d’une intervention vidéo, Zuckerberg a critiqué les biais supposés des fact-checkers tiers, estimant qu’ils ont alimenté une perception de censure politique, particulièrement aux États-Unis.
Le modèle des « Notes Communautaires » repose sur des annotations ajoutées par des utilisateurs, qui contextualisent les publications en ligne. Cette approche, qui existe déjà sur la plateforme X, permet aux utilisateurs d’évaluer les contributions d’autres membres. L’objectif affiché est de réduire les erreurs de modération et de simplifier les politiques de contenu.
Une stratégie influencée par des pressions politiques
Derrière cette décision se cache un contexte politique sensible. L’entreprise fait face à une forte critique de la part de certains courants conservateurs aux États-Unis, qui accusent les plateformes numériques de censurer des opinions divergentes. Selon CNBC, Meta a également annoncé un déménagement de ses équipes de modération de contenu vers le Texas, un État historiquement favorable aux Républicains, afin d’affirmer son engagement envers un environnement plus « neutre ».
De plus, cette annonce intervient à un moment clé : l’arrivée au pouvoir du président élu Donald Trump. Meta semble vouloir apaiser les tensions et renforcer sa relation avec l’administration entrante. Joel Kaplan, un ancien cadre influent dans les cercles républicains, a récemment été promu responsable de la politique mondiale de l’entreprise.
Un choix critiqué pour ses implications sociales et économiques
Le passage aux « Notes Communautaires » est loin de faire l’unanimité. Les défenseurs de la lutte contre la désinformation craignent que ce modèle participatif ne suffise pas à filtrer les contenus nuisibles. Selon CNBC, des sujets comme l’immigration ou les questions de genre, précédemment encadrés par des règles strictes, pourraient désormais être traités de manière plus permissive, augmentant les risques de polarisation et de propagation de fausses informations.
L’ancienne structure de vérification des faits, bien que critiquée pour sa complexité, avait l’avantage de s’appuyer sur des experts indépendants. Désormais, les plateformes comme Facebook et Instagram délégueront cette responsabilité à une communauté d’utilisateurs, ce qui pourrait poser des défis en termes de fiabilité et d’expertise.