Au cours des dernières années, la modération du contenu a atteint un point de rupture. Nous avons vu toutes sortes de laideurs prospérer sur des plates-formes comme Facebook, Twitter et YouTube, qu’il s’agisse de harcèlement coordonné, de comptes d’imposteurs, d’influence politique étrangère ou d’un copain algorithmique bizarre. Dans le même temps, la modération inconséquente et parfois lourde est devenue une question de plus en plus partisane, avec des célébrités conservatrices comparaissant devant le Congrès pour faire des déclarations obscures sur la censure. Dans les deux cas, la perte de confiance est palpable, alimentée par un manque de transparence sous-jacent. Une grande partie du discours mondial se déroule sur des plateformes fermées comme Facebook et YouTube, et les utilisateurs ont encore peu de contrôle ou de connaissance des règles régissant ce discours.
Aujourd’hui, une coalition de groupes à but non lucratif a tenté de combler cette lacune avec une liste de normes de modération de base appelées Principes de Santa Clara sur la transparence et la responsabilité dans la modération du contenu, conçue comme un ensemble de normes minimales pour le traitement des contenus en ligne. Le produit final s’appuie sur des travaux de l’Union américaine des libertés civiles, de l’Electronic Frontier Foundation, du Centre pour la démocratie et la technologie et de l’Open Technology Institute de New America, ainsi que d’un certain nombre d’experts indépendants. Ensemble, ils demandent un avis plus approfondi lors de la suppression d’un poste, un processus d’appel renforcé et de nouveaux rapports de transparence sur le nombre total de postes et de comptes suspendus.
Ce sont des mesures simples, mais elles donnent aux utilisateurs beaucoup plus d’informations et de recours que ce qu’ils obtiennent actuellement sur Facebook, YouTube et d’autres plateformes. Le résultat est une nouvelle feuille de route pour la modération de la plate-forme – et un défi ouvert à toute entreprise modérant le contenu en ligne.
« Ce dont nous parlons est fondamentalement la loi interne de ces plates-formes. »
Selon les règles de Santa Clara, chaque fois qu’un compte ou un autre contenu est supprimé, l’utilisateur reçoit une explication spécifique sur la façon dont le contenu a été signalé et pourquoi, avec une référence aux lignes directrices spécifiques qu’ils ont enfreintes. L’utilisateur pourrait également contester la décision, en présentant de nouvelles preuves à un modérateur humain séparé en appel. Les entreprises présenteraient également un rapport de modération régulier modélisé après les rapports actuels sur les demandes de données du gouvernement, énumérant le nombre total de comptes marqués et la justification de chaque indicateur.
« Ce dont nous parlons, c’est essentiellement le droit interne de ces plates-formes », a déclaré le directeur de l’Open Technology Institute, Kevin Bankston, qui a travaillé sur le document. « Notre objectif est de faire en sorte que le processus soit le plus ouvert possible. »
Jusqu’à présent, les entreprises ont été silencieuses sur les nouvelles lignes directrices. Google et Twitter ont refusé de commenter les nouvelles règles. Facebook n’a pas répondu à plusieurs demandes.
Mais alors que les entreprises doivent encore peser sur les règles de Santa Clara, certaines d’entre elles sont en train d’adopter des mesures similaires. Facebook a publié ses lignes directrices de modération pour la première fois le mois dernier, énonçant des règles spécifiques sur la violence et la nudité qui ont guidé les décisions pendant des années. La société a également créé son premier processus d’appel formel pour les utilisateurs qui croient avoir été suspendus par erreur.
YouTube est plus proche du respect des règles, même s’il manque encore de transparence. La plate-forme a déjà un processus de notification et d’appel, et ses directives ont été publiques dès le début. YouTube a publié son premier rapport de modération trimestriel en avril, détaillant les 8,2 millions de vidéos retirées au cours du dernier trimestre de 2017. Mais si le rapport éclaire les politiques impliquées dans les drapeaux humains, il ne donne pas le même détail si le contenu a été signalé par les systèmes automatisés responsables de la majeure partie de la suppression de contenu sur YouTube.
Le document de Santa Clara est limité aux problèmes de processus, évitant les questions les plus épineuses sur la modération. Les règles ne précisent pas quel contenu doit être supprimé ou quand un message donné peut être considéré à juste titre comme une menace pour la sécurité des utilisateurs. Il ne traite pas non plus des discours politiques ou des exclusions de l’actualité, comme la politique controversée des dirigeants mondiaux de Twitter.
Mais beaucoup d’experts impliqués disent que les règles sont plus d’un ensemble de normes minimales qu’une liste finale de demandes. « J’ai critiqué certaines politiques spécifiques, de la nudité au terrorisme », explique Jillian C. York, qui a travaillé sur les règles pour le FEP. « En fin de compte, cependant, je ne crois pas que la modération du contenu disparaisse de sitôt, et donc la médiation à travers la transparence et la procédure régulière est un bon début. »