Actualizamos nuestras reglas contra la conducta de odio

Por ‎@TwitterSeguro‎

Creamos nuestras reglas para mantener la seguridad de las personas en Twitter, las cuales evolucionan continuamente para reflejar las realidades del mundo en el que operamos. Nuestro enfoque principal es abordar el riesgo de los daños fuera de línea y estudios* muestran que el lenguaje deshumanizante aumenta ese riesgo. Como resultado, después de meses de conversaciones y retroalimentación del público, de expertos externos y nuestros propios equipos, estamos ampliando nuestras reglas contra la conducta de odio para incluir el lenguaje que deshumanice a otros con base en su religión.

A partir de hoy, pediremos que Tweets como estos, se eliminen de Twitter cuando nos sean reportados:

Este Tweet no está disponible
Este Tweet no está disponible.

Los Tweets publicados antes de la actualización de hoy que rompen esta regla y que se reporten, deberán eliminarse, pero no darán como resultado directo ninguna suspensión de la cuenta, ya que se hicieron antes de que se estableciera la regla.

¿Por qué empezar con grupos religiosos?

El año pasado, solicitamos retroalimentación para asegurarnos de considerar una amplia gama de perspectivas y escuchar directamente de las diferentes comunidades y culturas que usan Twitter en todo el mundo. En dos semanas, recibimos más de 8,000 respuestas de personas ubicadas en más de 30 países.

Algunos de los comentarios más consistentes que recibimos incluyen:

  • Un lenguaje más claro: en todos los idiomas, la gente creía que el cambio propuesto podría mejorarse al proporcionar más detalles, ejemplos de violaciones y explicaciones sobre cuándo y cómo se considera el contexto. Incorporamos estos comentarios al redefinir esta regla y también nos aseguramos de proporcionar más detalles y claridad en todas nuestras reglas.
  • Determinar lo que aplica: los encuestados dijeron que aplicar esta regla a "grupos identificables" era demasiado amplio, y que este tipo de lenguaje debería ser permitido en la interacción con grupos políticos, grupos de odio y otros grupos no marginados. Muchas personas querían "llamar a los grupos de odio de cualquier manera, en cualquier momento, sin temor". En otros casos, las personas querían poder referirse a los fanáticos, amigos y seguidores en términos atractivos, como "gatitos" y "monstruos".
  • Aplicación coherente: muchas personas expresaron inquietudes acerca de nuestra capacidad para hacer cumplir nuestras reglas de manera justa y coherente, por lo que desarrollamos un proceso de capacitación más profundo con nuestros equipos para asegurarnos de que estuvieran mejor informados al revisar los reportes. Para esta actualización fue especialmente importante dedicar tiempo para revisar ejemplos de lo que potencialmente podría ir en contra de esta regla, debido al cambio que describimos anteriormente.

A través de esta retroalimentación y nuestras conversaciones con expertos externos, también confirmamos que hay factores adicionales que debemos comprender mejor antes de ampliar esta regla, para poder abordar el lenguaje dirigido a otros grupos protegidos, incluyendo:

  • ¿Cómo protegemos las conversaciones que tienen las personas dentro de los grupos marginados, incluidos aquellos que utilizan terminología apropiada?
  • ¿Cómo nos aseguramos de que nuestra gama de acciones de cumplimiento tenga en cuenta el contexto, refleje la gravedad de las violaciones, sea justa y adecuada?
  • ¿Cómo podemos, o deberíamos, tener en cuenta si un grupo protegido ha sido históricamente marginado y/o está siendo blanco de ello, para así evaluar la gravedad del daño?

Seguiremos construyendo Twitter para la comunidad global a la que sirve y aseguraremos que sus voces ayuden a moldear nuestras reglas, nuestros productos y la forma en la que trabajamos. A medida que buscamos ampliar el alcance de este cambio, te mantendremos al tanto sobre lo que aprendemos y cómo lo abordamos en el marco de nuestras reglas. También continuaremos brindando actualizaciones periódicas sobre el resto del trabajo que realizamos para hacer de Twitter un lugar más seguro para todos @TwitterSeguro.

* Ejemplos de investigación sobre el vínculo entre el lenguaje deshumanizante y el daño fuera de línea:

Dra. Susan Benesch, Discurso peligroso

Nick Haslam y Michelle Stratemeyer, Investigaciones recientes sobre la deshumanización

 

Este Tweet no está disponible
Este Tweet no está disponible.