Entreprise

Mise à jour de nos règles relatives aux comportements haineux

Par Twitter Safety
mercredi, 2 décembre 2020

Note éditoriale : Ce blog a été publié pour la première fois le 9 juillet 2019, et mis à jour le 2 décembre 2020, pour refléter les changements supplémentaires apportés à nos règles relatives aux comportements haineux 

Nous créons nos règles pour assurer la sécurité des personnes sur Twitter. Ces règles évoluent constamment afin de refléter les réalités du monde dans lequel nous vivons. Nous nous concentrons principalement sur les risques de dommages hors ligne, et plusieurs études* montrent que le langage déshumanisant aggrave ces risques.

Alors que nous développons les règles de Twitter en réponse à l'évolution des comportements et aux défis liés au service de la conversation publique, nous comprenons l'importance d'adopter une perspective mondiale et de réfléchir à la manière dont les politiques peuvent avoir un impact sur différentes communautés et cultures. Depuis 2019, nous accordons une priorité aux commentaires du public, d’experts externes et de nos propres équipes afin d'alimenter le développement continu de notre politique de lutte contre les comportements haineux.

Développer notre politique de lutte contre les comportements haineux 

Bien que nous encouragions les gens à s'exprimer librement sur Twitter, les abus, le harcèlement et les comportements haineux n'ont pas leur place sur notre service. En juillet 2019, nous avons élargi nos règles contre les comportements haineux pour y inclure les propos qui déshumanisent les autres sur la base de la religion ou de la caste. En mars 2020, nous avons élargi cette règle pour inclure les propos déshumanisants fondés sur l'âge, le handicap ou la maladie. Aujourd'hui, nous élargissons encore notre politique de lutte contre les comportements haineux afin d'interdire les propos qui déshumanisent les personnes sur la base de la race, de l'origine ethnique et nationale. 

Nous exigerons que les Tweets comme ceux ci-dessous soient retirés de Twitter lorsqu'ils nous seront signalés. Nous continuerons également à détecter les contenus qui enfreignent potentiellement notre politique de lutte contre les comportements haineux grâce à une détection proactive et à des systèmes automatisés. Si un compte enfreint de manière répétée les règles de Twitter, nous pouvons le verrouiller ou le suspendre temporairement. Plus d'informations sur notre gamme d'options pour l'application de nos politiques ici.

Ce Tweet n'est pas disponible
Ce Tweet n'est pas disponible.

Notre approche pour lutter contre les comportements haineux sur Twitter 

Les règles de Twitter aident à définir les attentes de chacun sur notre service et sont mises à jour pour suivre l'évolution des comportements en ligne, des discours et des expériences que nous observons. En plus d'appliquer notre approche itérative et axée sur la recherche lorsque nous développons les règles de Twitter, nous avons examiné et intégré les commentaires du public afin de nous assurer que nous prenons en compte un large éventail de perspectives.    

Lors de chaque nouvelle version de cette politique, nous avons cherché à élargir notre compréhension des nuances culturelles et à nous assurer que nous sommes en mesure d'appliquer nos règles de manière cohérente. Nous avons bénéficié des réactions des différentes communautés et cultures qui utilisent Twitter dans le monde entier. Parmi les commentaires que nous avons reçus, beaucoup font état d’un besoin de :

  • Langage plus clair - Dans toutes les langues, les gens estiment que notre politique pourrait être améliorée en fournissant plus de détails, des exemples de violations et des explications sur la manière dont le contexte est pris en compte. Nous avons tenu compte de ces commentaires, et nous nous sommes également assurés de fournir des détails supplémentaires et de la clarté dans toutes nos règles.
  • Définitions plus précises - Les participants jugent que l'expression "groupes identifiables" est trop large et que toute personne devrait être autorisée à mettre en cause des groupes politiques, des groupes haineux ou d'autres groupes non marginalisés utilisant un langage haineux. Beaucoup de gens expriment le besoin de pouvoir "mettre en cause les groupes de haine de n'importe quelle manière, n'importe quand, sans crainte". Dans d'autres cas, les gens veulent pouvoir parler de leurs fans, amis et communautés via des termes attachants, comme "chatons" ou "monstres".
  • Application cohérente - De nombreuses personnes ont exprimé des inquiétudes quant à notre capacité à appliquer nos règles de manière équitable et cohérente. Nous avons donc mis au point un processus de formation plus long et plus approfondi avec nos équipes afin de nous assurer qu'elles soient mieux préparées lors de l'examen des signalements.

Néanmoins, malgré ces améliorations, nous ferons encore des erreurs. Nous nous engageons à continuer de travailler pour renforcer encore notre processus d'application de nos règles ainsi que notre procédure de recours afin de corriger nos erreurs et d'empêcher que des problèmes similaires ne se reproduisent à l'avenir.

Nos partenaires de confiance 

Nous nous rendons compte que nous n'avons pas toutes les réponses. Aussi, outre les retours du public, nous travaillons en partenariat avec notre Conseil Confiance et sécurité et d'autres organisations dans le monde entier afin de bénéficier de leur grande expertise dans ce domaine.

Dans le cadre de cette mise à jour, nous avons réuni un groupe de travail mondial constitué d'experts pour nous aider à réfléchir à la manière dont nous pourrions traiter de manière appropriée le discours déshumanisant autour de catégories complexes liées à la race, l'ethnicité et l'origine nationale. Ces experts nous ont aidés à mieux comprendre les défis auxquels nous serions confrontés afin de répondre à des questions telles que :

  • Comment protéger les conversations au sein de groupes marginalisés, y compris ceux qui utilisent une terminologie qu'ils se ré-approprient ? 
  • Comment faire en sorte que notre gamme de mesures d'application tienne pleinement compte du contexte, reflète la gravité des violations et soit nécessaire et proportionnée ? 
  • Comment pouvons-nous - ou devrions-nous - tenir compte dans notre évaluation de la gravité des dommages du fait qu'un groupe protégé donné a été historiquement marginalisé et/ou est actuellement ciblé ? 
  • Comment tenir compte des "dynamiques de pouvoir" qui peuvent intervenir entre différents groupes ? 

"Notre travail au sein des communautés locales nous aide à réfléchir de manière critique aux moyens d'assurer la cohésion sociale entre les diverses communautés que nous servons, les institutions et les décideurs politiques. En tant que partenaire de confiance, nous avons travaillé avec Twitter pour nous assurer que les nuances culturelles et régionales pertinentes au sein des groupes de migrants étaient prises en compte dans la mise à jour de leur politique en matière de déshumanisation". - Roses of Peace, organisation interconfessionnelle qui œuvre pour la cohésion sociale à Singapour. 

Nous continuerons à développer Twitter pour la communauté mondiale que nous servons et nous veillerons à ce que vos voix contribuent à façonner nos règles et notre mode de fonctionnement. Alors que nous continuons à rechercher des possibilités d'évolution et d'expansion de nos politiques afin de mieux relever les défis auxquels nous sommes actuellement confrontés, nous vous tiendrons informés de ce que nous apprenons et de la manière dont nous prévoyons d'y répondre. Nous continuerons également à vous informer régulièrement sur le travail que nous menons pour faire de Twitter un lieu plus sûr pour tous via @TwitterSafety.

*Exemples de travaux de recherche sur le lien entre langage déshumanisant et préjudice hors ligne :

 

Ce Tweet n'est pas disponible
Ce Tweet n'est pas disponible.
@TwitterSafety

Twitter Safety

‎@TwitterSafety‎ verified

Outils pour garantir la sécurité en ligne, ressources, et mises à jour

Seulement sur Twitter