Modération d'informations

La modération d'informations consiste à accepter, à déplacer vers une rubrique plus appropriée ou à refuser intégralement ou partiellement la publication d'une information ou d'un commentaire déposé par un utilisateur sur un réseau social numérique, un site web ou un forum. L'utilisateur responsable de la modération est appelé modérateur.

Exemple de suppression de commentaire (modération) sur une discussion d'un réseau social numérique, ici GitHub.

Certains réseaux sociaux, tels que YouTube ou Facebook[1], font également appel à des modérateurs de contenus digitaux qui, à l’aide d’algorithmes de détection[1],[2], vont approuver ou refuser la présence de certains types de contenus sur les plateformes en question[3]. Ce métier, encore relativement méconnu, aurait un impact psychologique négatif plus ou moins important sur ceux qui l’exercent[4].

Dans le cas de Facebook, d'anciens modérateurs de contenus ont porté plainte contre le géant américain[5], affirmant être atteints notamment de stress post-traumatique, et plus généralement de problèmes de santé mentale. En mai 2020, l’entreprise a annoncé qu’elle indemniserait les modérateurs de contenu actuels et anciens qui ont développé des problèmes de santé mentale durant l'exercice de leur fonction[6].

Processus

modifier

Dans le cas le plus classique :

  1. Un utilisateur du système de publication utilise une interface de saisie pour une nouvelle information (article, critique, actualité, photo, séquence vidéo ou autres selon les sites) ;
  2. Une fois l'information rédigée et validée par l'utilisateur, un système d'alerte ou de notification (par exemple, par courrier électronique) prévient un responsable (appelé modérateur du site) qu'une nouvelle information est disponible ;
  3. Le modérateur utilise une interface spéciale —dite interface de modération— pour indiquer au système de publication si l'information est valide ou non ;
  4. Selon les systèmes de publication, l'auteur peut être prévenu de la décision du modérateur, parfois avec un message indiquant le motif de refus, le cas échéant.

Types de modérations

modifier

Une information ou un commentaire qui est modéré avant d'être publié est qualifié de modération a priori. Toutefois, une information ou un commentaire peut être publié dès sa soumission par un utilisateur du système de publication du site web ; ce n'est qu'ensuite que la modération peut éventuellement intervenir dans une modération a posteriori.

Modération a priori

modifier

La modération a priori est une approche courante pour gérer le contenu généré par les utilisateurs sur les plateformes en ligne. Voici comment elle fonctionne :

  1. Examen préalable : Avant qu’un contenu ne soit publié, il est soumis à un examen par des modérateurs ou des algorithmes. Cela peut inclure des commentaires, des articles, des images, des vidéos, etc.
  2. Critères de modération : Les modérateurs se basent sur des règles et des directives spécifiques pour évaluer le contenu. Ces règles peuvent varier en fonction de la plateforme et du type de contenu. Par exemple, les commentaires haineux, les spams, les contenus violents ou les informations personnelles peuvent être rejetés.
  3. Approbation ou rejet : Le contenu est approuvé s’il respecte les règles, sinon il est rejeté. Les modérateurs peuvent également effectuer des ajustements mineurs (comme la correction d’une faute d’orthographe) avant d’approuver le contenu.
  4. Avantages :
    • Prévention des contenus inappropriés ou nuisibles.
    • Contrôle de la qualité du contenu.
    • Réduction du risque de litiges juridiques.
  5. Inconvénients :
    • Délai entre la soumission et la publication.
    • Charge de travail pour les modérateurs.
    • Possibilité de faux positifs (rejet de contenu acceptable) ou de faux négatifs (approbation de contenu problématique).

En résumé, la modération a priori vise à maintenir un environnement en ligne sûr et conforme aux normes établies.

Modération a posteriori

modifier

La modération a posteriori est plutôt employée pour les commentaires que peuvent laisser les visiteurs au sujet d'un article. Dans ce cas, il est parfois prévu qu'une alerte soit envoyée par courrier électronique à l'auteur de l'article, afin qu'il puisse intervenir en cas d'abus (exemple : spams dans les commentaires).

Avec le développement du Web 2.0, la modération des contenus est plutôt de type a posteriori, laissant les internautes alerter le modérateur du non-respect de la charte du site web. Le modérateur traite alors ces alertes de façon réactive. En complément, le modérateur effectue des contrôles par échantillon.

Ce processus de modération étant devenu essentiel pour plusieurs grands portails communautaires. Plusieurs prestataires, tels que Netino, Conciléo ou Atchik en France, se sont positionnés sur ce créneau et proposent un service de modération. La multiplication des espaces de réactions en ligne et des médias sociaux conduit les opérateurs du secteur à développer leurs propres outils de modération[7] pour centraliser les contenus.

Troll et spam

modifier

Lorsque des messages sont postés par un troll ou constituent des spams, la modération s'effectue de façon spécifique[8]. Dans le cas de publications inappropriées, non conformes à la charte de publication du site, le message peut être supprimé. Sinon, la meilleure façon de traiter avec un troll est de répondre au premier message en offrant son aide. Puis, si la personne persiste avec des messages inappropriés, de les ignorer ou bien de les bloquer[8]. La charte de publication est importante pour répondre aux trolls. Les réponses doivent être factuelles et il ne faut pas hésiter à corriger ses erreurs si besoin[9].

Commercial Content Modération ou la modération de contenu commercial

modifier

En 2019, Sarah T. Roberts, professeure et universitaire américaine, publie Behind the Screen : The Hidden Digital Labour of Commercial Content Moderation[10]. Dans cet ouvrage, la chercheuse décrit le mécanisme de « surveillance et de contrôle du contenu généré par les utilisateurs pour les plateformes de médias sociaux de tous types, afin de s'assurer que le contenu est conforme aux exigences légales et réglementaires, aux directives du site ou de la communauté, aux accords d'utilisation, et qu'il s'inscrit dans les normes de goût et d'acceptabilité pour ce site et son contexte culturel »[11]. Si, au début des premières communautés en ligne, ce travail était essentiellement réalisé par des bénévoles, ce modèle de modération n’est aujourd’hui plus viable pour les grandes plateformes. Elles vont, dans la majorité des cas, faire appel à des sous-traitants pour assurer cette tâche[12],[13],[14].

Ce ne sont pas uniquement les algorithmes de Facebook ou YouTube qui décident des contenus douteux à éliminer, mais des personnes en chair et en os, dans des pays à bas coût du travail[réf. nécessaire]. L'utilisateur de ces plateformes ne voit pas de « têtes coupées, [...] de poussins déchiquetés [ou] de chiens écorchés », car des travailleurs de l'ombre dans les pays du sud (en particulier dans le pays anglophone que sont les Philippines) font ce travail de modération. Les troubles psychologiques de ces derniers, qui pratiquent le Commercial Content Moderation, préoccupent peu les entreprises de l'Internet, puisque, s'ils ne démissionnent pas d'eux-mêmes, ils sont licenciés au bout de deux ans[15],[16].

Algorithmes de détection

modifier

Il existe une multitude d’outils automatisés utilisés pour filtrer, classifier ou encore organiser les informations que nous voyons en ligne. La plupart fonctionnent sur la base d’intelligence artificielle ou de procédés d'apprentissage automatique et sont déployés pour participer à la modération des contenus publiés sur certains sites[17]. Ces algorithmes, utilisés par la modération de contenu, sont limités à plusieurs égards[18] et leur compréhension est nécessaire aujourd’hui, puisqu'ils sont de plus en plus adoptés par les plateformes en lignes[19].

Dans le cas de Facebook, ces algorithmes sont souvent présentés comme une solution miracle pour décharger les modérateurs humains d’une partie de leur travail. Dans les faits, ces algorithmes sont limités. Ils ont un taux d’erreur non négligeable et ne peuvent pas agir indépendamment, sans que des modérateurs humains n'aient besoin de les assister pour corriger les erreurs inévitablement commises[20],[21],[22].

Origines de la modération

modifier

La France fait figure de précurseur dans le domaine de la modération. Les premières entreprises à pratiquer la modération sont les éditeurs de services de messagerie anonyme par minitel et audiotel. Ces sociétés proposent des services de messagerie instantanée payants à l'usage selon le modèle du kiosque Télétel de France Télécom. Elles seront rapidement confrontées à une double problématique : la sauvegarde de leur chiffre d'affaires et la protection juridique de l'entreprise et de ses dirigeants.

Chiffre d'affaires en danger

modifier
Chaque seconde de consultation générant du revenu pour l'éditeur, celui-ci tente de fidéliser l'utilisateur du service. Rapidement, une forme de concurrence déloyale se mettra en place : le détournement de clientèle, aussi appelé racolage. Des animateurs de services de messagerie se connectent à des services minitel concurrents sous des pseudonymes féminins et invitent leurs correspondants à les rejoindre sur le service de leur employeur. La nuisance est double : la perte de clients excédés par ces messages de publicité s'ajoute à celle des clients détournés vers les services concurrents. Pour se protéger de ce fléau, les principaux éditeurs de messagerie tels AGL ou Tele store vont alors mettre en place des logiciels de filtrage des messages de plus en plus élaborés en accompagnement d'une équipe de surveillants appelés modérateurs.

Un cadre réglementaire contraignant

modifier

La création d'un espace virtuel de dialogue anonyme est une innovation majeure qui comporte aussi des risques. Diverses formes de trafic vont tenter de se développer sur ces messageries, au premier rang desquels le proxénétisme et la prostitution. Or, la loi définit le proxénétisme comme « le fait, par quiconque, de quelque manière que ce soit, d'aider, d'assister ou de protéger la prostitution d'autrui ; de tirer profit de la prostitution d'autrui, d'en partager les produits ou de recevoir des subsides d'une personne se livrant habituellement à la prostitution ». Les éditeurs de service doivent prendre des mesures préventives pour éviter toute condamnation. Le « 3615 ALINE » a ainsi été condamné en 1997 pour proxénétisme aggravé[23],[24].

Du reste, les obligations de l'éditeur de service seront listées dans la convention kiosque Télétel, rédigées sous l'égide de Conseil supérieur de la télématique et contrôlées par France Télécom et le Comité de la télématique anonyme. Ces instances réunissent des représentants des opérateurs, d'associations familiales et de l'opérateur de télécommunications. Les manquements à ces obligations peuvent être sanctionnés de lourdes amendes et de coupures du service. La modération se généralise[25].

Certaines de ces sociétés issues du minitel ont su développer une expertise de modération qu'elle proposent encore aujourd'hui à leurs clients, telles qu'Idixit, spin off de Neocom-Telestore, Concileo, Atchik, ou Netino, dont le fondateur a été un pionnier du minitel.

Notes et références

modifier
  1. a et b (en) Elizabeth Dwoskin, Jeanne Whalen et Regine Cabato, « Content moderators at YouTube, Facebook and Twitter see the worst of the web — and suffer silently », The Washington Post,‎ (lire en ligne).
  2. (en) Queenie Wong, « Facebook content moderation is an ugly business. Here's who does it », Cnet,‎ (lire en ligne).
  3. Morgane Tual, « Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook », Le Monde,‎ (lire en ligne).
  4. (en) Casey Newton, « The Trauma Floor », The Verge,‎ (lire en ligne).
  5. (en) Elizabeth Dwoskin, « Facebook content moderator details trauma that prompted fight for $52 million PTSD settlement », Washington Post,‎ (lire en ligne).
  6. (en) Zack Whittaker, « Facebook to pay $52 million to content moderators suffering from PTSD », Techcrunch,‎ (lire en ligne).
  7. « Surveiller la présence de son entreprise sur les réseaux sociaux », sur indexel.net, (consulté le ).
  8. a et b (en) Dan Gingiss, « How To Handle Trolls In Social Media », sur Forbes (consulté le ).
  9. (en-US) Hootsuite, « How to Deal With Social Media Trolls: », sur Hootsuite Social Media Management, (consulté le ).
  10. « « Derrière les écrans », de Sarah T. Roberts : le sale boulot des « nettoyeurs » du Web », Le Monde.fr,‎ (lire en ligne, consulté le ).
  11. (en) Sarah T. Roberts, « Behind the Screen: Commercial Content Moderation (CCM) ».
  12. (en) Queenie Wong, « Facebook content moderation is an ugly business. Here's who does it », Cnet,‎ (lire en ligne).
  13. (en) Zack Whittaker, « The Trauma Floor », The Verge,‎ (lire en ligne).
  14. Morgane Tual, « Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook », Le Monde,‎ (Meurtres, pornographie, racisme… Dans la peau d’un modérateur de Facebook).
  15. (de) Wer die Blutlachen bei Facebook aussortiert? (« Qui trie les mares de sang sur Facebook? ») sur sueddeutsche.de, site de Süddeutsche Zeitung.
  16. (de) Neben uns die Sintflut; Die Externalisierungsgesellschaft und ihr Preis (« À côté de nous le déluge; La société d'externalisation, et son coût ») Stephan Lessenich (de) (ISBN 978-3-446-25295-0).
  17. (en) Spandana Singh, « How Automated Tools are Used in the Content Moderation Process », Newamerica.org,‎ (lire en ligne).
  18. Boris Barraud, « Durand contre Facebook : L’Origine du Monde de Courbet a-t-elle été censurée par le réseau social ? », La revue européenne des médias et du numérique,‎ (lire en ligne).
  19. (en) Spandana Singh, « The Limitations of Automated Tools in Content Moderation », Newamerica.org,‎ (lire en ligne).
  20. (en) Sarah Jeong, « AI is an excuse for Facebook to keep messing up », The Verge,‎ (lire en ligne).
  21. (en) James Vincent, « AI won’t relieve the misery of Facebook’s human moderators », The Verge,‎ (lire en ligne).
  22. (en) Sarah T. Roberts, « The Great A.I. Beta Test », Slate,‎ (lire en ligne).
  23. Malika Nor, La Prostitution: idées reçues sur la prostitution, Le Cavalier Bleu Editions, (ISBN 978-2-84670-971-2, lire en ligne).
  24. « Cour de Cassation, Chambre criminelle, du 12 janvier 2000, 98-86.441, Publié au bulletin », sur Légifrance (consulté le ).
  25. « dsi.cnrs.fr/rmlr/textesintegra… »(Archive.orgWikiwixArchive.isGoogleQue faire ?).

Liens externes

modifier
  NODES
Association 1
innovation 1
INTERN 3
Note 2
twitter 1