Actualizamos nuestras reglas contra las conductas de odio

Por ‎@TwitterSeguro‎

Nota editorial: La versión inicial de este blog post se publicó el pasado 9 de julio de 2019 y ha sido actualizada el 5 de marzo de 2020 para reflejar los cambios adicionales que hemos realizado a nuestra regla contra las conductas de odio 

Creamos nuestras reglas para mantener a los usuarios seguros en Twitter, y éstas evolucionan continuamente para reflejar las diferentes realidades del mundo en el que operamos. Nuestro enfoque principal es abordar los riesgos de los daños offline, y los estudios* muestran que el lenguaje deshumanizante aumenta ese riesgo. Como resultado, después de meses de conversaciones y opiniones y sugerencias de los usuarios, expertos externos y nuestros propios equipos, en julio de 2019 ampliamos nuestras reglas contra las conductas de odio para incluir el lenguaje que deshumaniza a otros por su religión. Hoy, ampliamos de nuevo esta regla para incluir el lenguaje que deshumanice por edad, discapacidad o enfermedad.

Desde hoy mismo, los Tweets como los que se muestran a continuación no estarán permitidos en Twitter y solicitaremos que se eliminen cuando recibamos una denuncia:

Este Tweet no está disponible
Este Tweet no está disponible.

Los Tweets reportados que hayan infringido esta regla en relación a la edad, enfermedad y/o incapacidad anteriormente a la entrada en vigor de esta norma deberán eliminarse, pero no recibirán directamente ninguna suspensión de la cuenta porque se tuitearon antes de que se estableciera la regla.

¿Por qué empezar por estos  grupos?

En 2018 solicitamos feedback para asegurarnos de que estábamos considerando una amplia gama de perspectivas y sobre todo para escuchar directamente a las diferentes comunidades y culturas que utilizan Twitter en todo el mundo. En dos semanas, recibimos más de 8.000 respuestas de personas provenientes de más de 30 países.

Entre los comentarios más reiterados que recibimos se incluían:

  • Un lenguaje más claro - En todos los idiomas, la gente creía que el cambio propuesto podría mejorarse proporcionando más detalles, ejemplos de violaciones y explicaciones sobre cuándo y cómo ocurría el hecho. Incorporamos este feedback cuando mejoramos esta regla, y también nos aseguramos de proporcionar detalles adicionales y claridad en todas nuestras reglas.
  • Acotar qué se tiene en consideración - Los participantes dijeron que hablar de "grupos identificables" era demasiado amplio, y que se debería permitir interactuar con grupos políticos, grupos de odio y otros grupos no marginados con este tipo de lenguaje. Mucha gente quería mencionar "a los grupos de odio de cualquier manera, en cualquier momento, sin miedo". En otros casos, la gente quería poder referirse a los fans, amigos y seguidores en términos entrañables, como "gatitos" y "monstruos".
  • Cumplimiento coherente - Muchas personas expresaron su preocupación por nuestra capacidad para hacer cumplir nuestras normas de manera justa y coherente, por lo que desarrollamos un proceso de formación más largo y en profundidad con nuestros equipos para asegurarnos de que estuvieran mejor formados para revisar los informes. Para esta actualización, fue especialmente importante dedicar tiempo a revisar ejemplos de lo que potencialmente podría ir en contra de esta regla, debido al cambio que hemos explicado anteriormente.

Continuamos aprendiendo a medida que añadimos categorías adicionales a esta regla. Hemos visto que con una formación más profunda y un período de prueba más amplio para determinar qué necesitamos aclarar y definir aún más, nuestro equipo está más preparado para manejar los matices culturales y garantiza una aplicación más consistente.

También somos conscientes de que no tenemos todas las respuestas. Por eso hemos desarrollado un grupo de trabajo global de expertos externos para ayudarnos a pensar cómo debemos abordar el discurso deshumanizante en torno a categorías más complejas como la raza, el origen étnico y el origen nacional. Este grupo nos ayudará a comprender los matices difíciles, el importante contexto regional e histórico y, en última instancia, nos ayudará a responder preguntas como:

  • ¿Cómo protegemos las conversaciones que las personas tienen dentro de los grupos marginados, incluyendo aquellas que utilizan la terminología reclamada?
  • ¿Cómo podemos garantizar que nuestra acciones de aplicación de nuestras normas tengan en cuenta todo el contexto, que refleje la gravedad de las infracciones y sea necesaria y proporcionada?
  • ¿Cómo podemos -o debiéramos- tener en cuenta si un determinado grupo protegido ha sido históricamente marginado y/o está siendo incluido en nuestra evaluación de la gravedad del daño?

  • ¿Cómo tenemos en cuenta las dinámicas de poder que pueden entrar en juego en diferentes grupos?

Todo esto es parte de nuestro trabajo continuo con el Consejo de Confianza y Seguridad y nuestro compromiso de fortalecer y centrarnos en esas asociaciones. Estamos de acuerdo en que estas son áreas difíciles de corregir, por lo que queremos ser reflexivos y efectivos a medida que ampliamos esta regla.

Continuaremos construyendo un Twitter para la comunidad global a la que va dirigida y nos aseguraremos de que sus voces ayuden a dar forma a nuestras reglas, producto y forma de trabajar. A medida que buscamos expandir el alcance de este cambio, informaremos sobre lo que vamos aprendiendo y cómo lo abordamos dentro de nuestras reglas. También continuaremos proporcionando actualizaciones regulares sobre todo el trabajo que estamos haciendo para hacer de Twitter un lugar más seguro para todos @TwitterSeguro.

*Ejemplos de investigación sobre la relación entre el lenguaje deshumanizante y el daño fuera de internet:

  1. Discurso Peligroso del Dr. Susan Benesch
  2. Investigación reciente de Nick Haslam y Michelle Stratemeyer sobre deshumanización
Este Tweet no está disponible
Este Tweet no está disponible.