Meta, la société derrière des géants des réseaux sociaux tels que Facebook, Instagram et Threads, a dévoilé une nouvelle initiative : les Community Notes. Ce modèle controversé remplace progressivement la vérification des faits par des tiers au profit de la modération pilotée par la communauté, permettant aux utilisateurs de jouer un rôle direct dans la signalisation et la fourniture de contexte pour les contenus qu'ils jugent faux ou trompeurs. Cependant, ce système, qui s'inspire de celui déjà adopté par X (anciennement Twitter), suscite des inquiétudes quant à son potentiel à perpétuer la désinformation.
Les Community Notes permettront aux utilisateurs d'ajouter de brefs explicatifs de 500 caractères sur les publications qu'ils estiment mal représentées. Ces contributeurs devront également inclure des liens de référence pour justifier leurs revendications. Il est important de noter que cette initiative ne s'appliquera pas aux publicités, qui font l'objet de notes similaires sur X.

Cependant, voici un problème majeur : pour qu'une Community Note soit affichée, il doit y avoir un accord entre des individus ayant des opinions politiques opposées. Cette stratégie vise à réduire les évaluations biaisées en s'assurant que les notes sont examinées sous différents angles idéologiques. Pourtant, une faille importante apparaît ici : sur X, comme l'a révélé le Center for Countering Digital Hate (CCDH), 73 % des Community Notes liées à des sujets politiques ne sont jamais affichées en raison d'un manque d'accord entre utilisateurs aux convictions politiques divergentes. Cette situation pourrait être particulièrement problématique sur les plateformes de Meta, étant donné leur vaste portée de plus de 3,3 milliards d'utilisateurs par mois.

Le problème central ? Les utilisateurs pourraient tout simplement ne pas être d'accord sur le fait qu'une note soit nécessaire, même lorsqu'elle met en lumière une désinformation évidente. Cela pourrait entraîner une suppression de contextes cruciaux, notamment sur des sujets sensibles tels que l'ingérence électorale, qui échouent souvent à recueillir un consensus en raison du climat politique polarisé.
De plus, Meta n’a pas précisé comment elle évaluera les inclinations politiques des contributeurs. X détermine cela en analysant le comportement des utilisateurs, tel que les types de publications qu'ils aiment, partagent ou commentent. Bien que Facebook suive déjà en partie les inclinations politiques via sa section "Préférences publicitaires", il n'y a aucune transparence sur la manière dont ces informations influenceront les contributions aux Community Notes. Cette opacité soulève des préoccupations sur les biais potentiels dans la manière dont les contenus sont signalés et évalués.
Un autre point crucial est la possibilité de manipulation organisée du système. X a déjà été confronté à des problèmes de groupes coordonnés qui votent en faveur ou contre des Notes en fonction de leurs opinions politiques communes. Elon Musk lui-même a reconnu que des acteurs étatiques utilisaient les Community Notes pour influencer les discours. Bien que Meta n’ait pas abordé ce problème dans sa présentation récente, la possibilité que le système soit "manipulé" par des entités organisées demeure une inquiétude réelle.

Alors que Meta prévoit de déployer les Community Notes dans les prochains mois, son efficacité dans la lutte contre la désinformation reste incertaine. Le système peut être bien intentionné, mais sans adresser ses potentielles failles, il risque d'amplifier les problèmes qu'il cherche à résoudre. Avec une base d'utilisateurs aussi vaste, les conséquences d'un système inefficace pourraient être considérables, rendant crucial le besoin pour Meta de perfectionner son approche et de s'assurer qu'elle sert réellement à limiter la propagation de fausses informations plutôt qu'à l’amplifier.
Seul l’avenir dira si les Community Notes répondront à leur promesse ou si elles deviendront un chapitre de plus dans la lutte incessante contre la désinformation sur les réseaux sociaux.
