En cliquant sur "Accepter", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
5 août 2022

La modération des médias sociaux est-elle éthique ?

5 août 2022

La modération des médias sociaux est-elle éthique ?

La modération des réseaux sociaux est-elle nécessaire ? Réduit-elle la liberté d'expression ? Les modérateurs sont-ils protégés ? Ce sont les questions auxquelles nous tentons de répondre dans cet article.

Qu'est-ce que la modération des médias sociaux ?

La modération des médias sociaux est le processus ou l'acte qui consiste à réguler le contenu des médias sociaux ou à s'assurer qu'il reste dans les limites acceptables instructions propres à une communauté particulière en ligne. Les principaux contenus modérés sur les médias sociaux sont les vidéos, les textes et les images.

Types de modération dans les médias sociaux

Pré-modération

Grâce à cette méthode, les modérateurs humains vérifient minutieusement les messages avant de les autoriser, conformément à la communauté instructions. Elle permet d'éviter l'impact négatif d'un message sur la communauté et ses membres. Elle est très populaire pour la détection de la cyberintimidation.

Post-modération 

Il s'agit de supprimer les contenus qui vont à l'encontre de la communauté en ligne instructions. Des modèles d'intelligence artificielle entraînés aident les modérateurs à examiner les détails d'un message et à décider rapidement s'il faut le supprimer ou le maintenir. Le nombre de modérateurs est très important, surtout lorsqu'il s'agit d'un large public dans une interaction en direct.

Modération réactive 

Il s'appuie sur les membres de la communauté pour signaler les contenus qui enfreignent son site instructions, ou que les membres jugent inacceptables. Il existe généralement des boutons sur lesquels il est possible de cliquer, qui alertent l'administration afin de vérifier si le contenu signalé est réellement inapproprié pour la communauté. Une fois cette vérification effectuée, le message en question est supprimé manuellement.

Modération des contenus commerciaux

Les entreprises et les organisations adoptent cette méthode pour se prémunir contre les atteintes à la réputation de leur marque. Les utilisateurs signalent les contenus inappropriés dans les limites de la loi, de la communauté instructions ou des normes sociétales générales. Les modérateurs protègent les sites ou les plateformes contre les contenus préjudiciables tels que la pornographie ou la violence. 

Modération distribuée

Elle comprend la modération par l'utilisateur et la modération spontanée. Dans le cadre de la modération par l'utilisateur, les utilisateurs sont autorisés à modérer le contenu d'un autre utilisateur à la hausse ou à la baisse par des points qui sont agrégés dans une fourchette particulière ou de manière aléatoire. 

Modération automatisée

Des outils tels que les filtres et le traitement du langage naturel bloquent les liens provenant d'adresses IP interdites et identifient, signalent, modifient ou suppriment certaines expressions inappropriées.

Qu'est-ce que l'éthique ?

L'éthique est une branche de la philosophie qui régit la conduite humaine au sein d'une société donnée, en particulier si elle est justifiable ou moralement acceptable.

Les deux faces de la médaille de l'éthique

Les pros

La modération des médias sociaux est une question d'éthique si l'on considère la protection de la marque et des utilisateurs. Bien que vous ne puissiez pas contrôler les pensées ou le langage toxiques des autres, vous pouvez contrôler leur présence sur votre page. La cyberintimidation et le trolling inutiles peuvent être éliminés grâce à cette modération.

Il protège les membres de la communauté contre la visualisation de contenus traumatisants et sanglants, qui peuvent avoir des effets psychologiques, tels que des crises de panique régulières, sur les utilisateurs.

Il permet le flux d'informations provenant des utilisateurs afin d'accroître la visibilité d'une marque dans un espace virtuel sûr, tout en vous laissant le contrôle du contenu diffusé au public.

Les inconvénients

La modération des médias sociaux ne permet pas de "sortir des sentiers battus", en particulier en ce qui concerne le traitement du langage naturel. Les circonstances, l'intention et les émotions qui se cachent derrière un message ne sont pas prises en considération. Par exemple, une personne postant en plaisantant "Je vais t'assommer" sera signalée par la modération automatisée comme un discours violent. 

Elle a un effet émotionnel sur les modérateurs. Les modérateurs sont quotidiennement confrontés à des données explicites et traumatisantes. Cela a un effet psychologique sur eux et a tendance à leur tirer des flèches d'épuisement mental.

La réglementation instructions est parfois imprécise. Elle ne prend guère en compte le contexte technique ou culturel dans lequel un contenu est créé. 

Les gros volumes de données qui arrivent quotidiennement représentent un lourd tribut, en particulier pour les modérateurs humains qui doivent vérifier manuellement chaque contenu pour décider de ce qu'il convient d'en faire. Il est également difficile, même avec l'aide de l'intelligence artificielle, de modérer les contenus dans les délais prévus.

Vous pourriez également aimer
ces autres articles

Vous voulez faire grandir vos projets de labellisation de données
et le faire de manière éthique ?

Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !