En cliquant sur "Accepter", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
5 août 2022

La modération des médias sociaux est-elle éthique ?

5 août 2022

La modération des médias sociaux est-elle éthique ?

La modération des réseaux sociaux est-elle nécessaire ? Réduit-elle la liberté d'expression ? Les modérateurs sont-ils protégés ? Ce sont les questions auxquelles nous tentons de répondre dans cet article.

Qu'est-ce que la modération des médias sociaux ?

La modération des médias sociaux est le processus ou l'acte consistant à réguler le contenu des médias sociaux ou à s'assurer qu'il respecte les directives acceptables propres à une communauté en ligne particulière. Les principaux contenus qui sont modérés sur les médias sociaux sont les vidéos, les textes et les images.

Types de modération dans les médias sociaux

Pré-modération

Avec cette méthode, les modérateurs humains vérifient minutieusement les messages avant de les autoriser, conformément aux directives de la communauté. Elle permet d'éviter l'impact négatif d'un message sur la communauté et ses membres. Elle est très populaire pour détecter la cyberintimidation.

Post-modération 

Il s'agit de supprimer les contenus qui vont à l'encontre des directives de la communauté en ligne. Des modèles d'intelligence artificielle entraînés aident les modérateurs à examiner les détails d'un message, et à décider rapidement s'il faut le supprimer ou le maintenir. Le nombre de modérateurs est très important, surtout lorsqu'il s'agit d'une interaction en direct avec un large public.

Modération réactive 

Il compte sur les membres de la communauté pour signaler les contenus qui enfreignent ses directives ou que les membres jugent inacceptables. En général, il existe des boutons sur lesquels il faut cliquer, ce qui alerte l'administration pour vérifier si le contenu signalé est vraiment inapproprié pour la communauté. Une fois confirmé, le message en question est supprimé manuellement.

Modération des contenus commerciaux

Les entreprises et les organisations adoptent cette méthode pour se prémunir contre les atteintes à la réputation de leur marque. Les utilisateurs signalent les contenus inappropriés dans les limites de la loi, des directives communautaires ou des normes sociétales générales. Les modérateurs protègent les sites ou les plateformes contre les contenus préjudiciables tels que la pornographie ou la violence. 

Modération distribuée

Elle implique la modération par les utilisateurs et la modération spontanée. Dans le cas de la modération par l'utilisateur, les utilisateurs sont autorisés à modérer le contenu d'un autre utilisateur à la hausse ou à la baisse par des points qui sont agrégés dans une fourchette particulière ou au hasard. 

Modération automatisée

Des outils tels que les filtres et le traitement du langage naturel permettent de bloquer les liens provenant d'adresses IP interdites, ainsi que d'identifier, de signaler, de modifier ou de supprimer certaines expressions inappropriées.

Qu'est-ce que l'éthique ?

L'éthique est une branche de la philosophie qui régit la conduite humaine au sein d'une société donnée, en particulier si elle est justifiable ou moralement acceptable.

Les deux faces de la médaille de l'éthique

Les pros

La modération des médias sociaux est éthique si l'on considère la protection des marques et des utilisateurs. Si vous ne pouvez pas contrôler les pensées ou le langage toxiques des autres, vous pouvez contrôler leur présence sur votre page. Cela permet d'éliminer la cyberintimidation et le trolling inutiles.

Il protège les membres de la communauté de la visualisation de contenus traumatisants et gores, qui peuvent avoir un effet psychologique, comme des attaques de panique régulières sur les utilisateurs.

Il permet le flux d'informations provenant des utilisateurs afin d'accroître la visibilité d'une marque dans un espace virtuel sûr, tout en vous laissant le contrôle du contenu diffusé au public.

Les inconvénients

La modération des médias sociaux ne permet pas de "sortir des sentiers battus", surtout en ce qui concerne le traitement du langage naturel. Les circonstances, l'intention et les émotions qui se cachent derrière un message ne sont pas prises en considération. Par exemple, une personne qui publie en plaisantant "Je vais t'assommer" sera signalée par la modération automatique comme un discours violent. 

Elle a un effet émotionnel sur les modérateurs. Les modérateurs sont quotidiennement confrontés à des données explicites et traumatisantes. Cela a un effet psychologique sur eux et a tendance à leur tirer des flèches d'épuisement mental.

Les directives réglementaires sont parfois inexactes. Elles ne prennent guère en compte le contexte technique ou culturel dans lequel un contenu est créé. 

Les grands volumes de données qui arrivent quotidiennement représentent un lourd fardeau, en particulier pour les modérateurs humains qui doivent vérifier manuellement chaque contenu pour décider de ce qu'ils doivent en faire. Il est également difficile, même avec l'aide de l'intelligence artificielle, de modérer le contenu dans les délais prévus.

Vous pourriez également aimer
ces autres articles

Vous voulez grandir vos projets de labellisations de données
et le faire de manière éthique ?

Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !