On a l'impression que trop souvent, nous voyons des informations selon lesquelles une infraction flagrante ou une autre a été commise sur l'un ou l'autre des sites de médias sociaux, y compris des publications illégales ou la diffusion en direct de contenu violent. Il peut être facile de se demander comment, à cette époque technologiquement avancée, de telles choses peuvent passer entre les mailles du filet.
Mais, le fait est qu'il est pratiquement impossible de modérer efficacement les sites de médias sociaux. Pourquoi? Il y a quelques raisons.
Certains sites de médias sociaux sont encore naissants ou sont plus spécialisés. Cependant, les principaux sites de médias sociaux ont de vastes bases d'utilisateurs. Les plus grands sites comptent entre des centaines de millions et des milliards d'utilisateurs. Naturellement, toute plate-forme aussi grande est difficile à surveiller.
La plupart des grands réseaux sociaux gèrent cela grâce à une combinaison de rapports communautaires, d'algorithmes (imparfaitement) formés pour repérer les contenus préjudiciables et de quelques modérateurs humains. Alors qu'un membre de la communauté ou une IA peut repérer et signaler des informations nuisibles, c'est un humain (ou un groupe d'humains) qui a le dernier mot. Et, de nombreux sites offrent un processus d'appel.
Les sites de médias sociaux ne sont pas seulement énormes en termes de base d'utilisateurs. Différents états et différents pays ont des lois différentes concernant le type de contenu qui doit être signalé et comment.
Ainsi, les entreprises de médias sociaux actives dans différentes zones géographiques doivent souvent avoir des politiques différentes pour différents utilisateurs. Cela inclut différentes politiques de désinformation et de confidentialité. En fait, Twitter a dû accepter des conditions spécifiques pour être banni au Nigeria.
Plus encore, les médias sociaux sont un phénomène mondial, mais cela ne se produit pas toujours dans les langues "mondiales". Cela peut obliger les entreprises de médias sociaux à se démener pour trouver des modérateurs de contenu qui parlent des langues régionales afin de fournir des services à l'échelle mondiale sans laisser ces utilisateurs vulnérables aux mauvais acteurs.
Un bon exemple est celui du propriétaire de Facebook, Meta. L'entreprise a été récemment poursuivi par un ancien modérateur de contenu à Nairobi qui prétend que les modérateurs de contenu de la région sont induits en erreur en assumant le rôle.
3. Les modérateurs marchent sur la corde raide
La plupart des utilisateurs de médias sociaux veulent deux choses: ils veulent se sentir en sécurité et ils veulent se sentir libres. Trouver un équilibre entre ces deux désirs est la tâche délicate du modérateur de contenu.
Si vous vous éloignez trop d'un côté, les utilisateurs se sentiront surveillés. S'éloigner trop de l'autre côté et les utilisateurs se sentiront abandonnés. L'une des façons dont certains sites de médias sociaux contournent ce problème consiste à utiliser des modérateurs de communauté.
Les modérateurs de la communauté aident à exprimer que la modération est quelque chose fait par passion pour la promotion un discours constructif sans autoriser les contenus préjudiciables plutôt que par désir de contrôler ou d'opprimer utilisateurs. Ce modèle est difficile à grande échelle, bien que différentes plates-formes le fassent fonctionner de différentes manières.
Parler est revenu en ligne après avoir ajusté sa politique de modération pour se conformer aux politiques de tiers. Ils ont en quelque sorte un système de jury communautaire qui n'entre plus ou moins en jeu qu'après qu'un message potentiellement problématique a déjà été signalé. Donner la priorité aux rapports des utilisateurs est une autre façon pour Parler d'alléger la charge de ses modérateurs.
4. Les modérateurs doivent suivre une ligne dynamique
Les modérateurs de contenu opèrent également dans ce qui peut ressembler à une zone grise morale. Même les plates-formes avec une vision plus libre de la modération ont des règles contre les contenus potentiellement dangereux ou violents. Certains messages sont évidemment nuisibles ou violents, tandis que d'autres peuvent sembler nuisibles ou dangereux pour certains utilisateurs (ou modérateurs) mais pas pour d'autres.
De nombreuses plateformes ont également des règles contre d'autres activités comme la vente de produits ou de services. Cela peut être une zone encore plus difficile à naviguer, en particulier compte tenu de la taille et de la portée de certains sites.
Considérer ce que font les modérateurs de la communauté Reddit. Chaque fois que des utilisateurs rejoignent une nouvelle communauté, ils reçoivent immédiatement les règles de cette communauté. Ces règles sont également affichées sur le côté de chaque page communautaire. Cela permet à chaque communauté d'avoir un sous-ensemble de règles adaptées à elle plutôt que des règles générales pour l'ensemble du site.
L'idée de subreddits aide également Reddit à utiliser des modérateurs de communauté à grande échelle. Les modérateurs sont chargés de modérer leur subreddit plutôt que d'essayer de patrouiller sur l'ensemble du site.
Enfin, les réseaux sociaux évoluent très vite. Lorsque vous entendez parler d'un message problématique, cela peut être bien après que l'affiche originale l'ait supprimé. Dans le cas où le message n'a pas été signalé alors qu'il était en ligne, y répondre après coup peut être délicat.
Dans un cas en 2015, une publication sur le site de médias sociaux YikYak a été signalée à la police en utilisant une version modifiée de la publication originale, qui avait déjà été supprimée. Ce qui aurait pu être résolu en interne par les modérateurs de contenu en ligne est devenu un drame juridique prolongé qui a bouleversé toute une communauté.
De nombreux sites de médias sociaux, dont Facebook, ont politiques de préservation des messages suspects au cas où ils auraient besoin d'être référencés dans des situations en développement, y compris par les forces de l'ordre.
Mais des fonctionnalités telles que la diffusion en direct signifient que le contenu augmente au fur et à mesure, ce que les algorithmes peuvent manquer jusqu'à ce qu'il soit trop tard.
Lancez une pièce à votre modérateur
Si vous voyez quelque chose en ligne qui vous inquiète, passez par les canaux fournis pour le signaler. Essayez d'éviter de vous fâcher ou de vous méfier, car il est difficile de modérer les réseaux sociaux. Il en va de même si vous ou un message est signalé. C'est probablement une décision bien intentionnée pour assurer la sécurité des utilisateurs de médias sociaux.