기업

혐오 행위 관련 정책 업데이트

2019년 7월 10일 수요일

트위터는 사람들이 안전하게 이용할 수 있는 규정을 만들며, 최근 온라인 행동 트렌드를 반영해 업데이트하고 있습니다. 연구*를 통해 인격 모독적인 발언이 어떻게 폭력으로 이어질 수 있는지 입증했으며, 이에 대한 대응으로 트위터의 혐오 행위 관련 정책의 범위를 확대하는 것은 중대한 사안이었습니다. 트위터 운영원칙을 수립함에 있어 최우선사항은 사용자들의 안전을 보호하는 것입니다. 트위터는 플랫폼 내외부에서 발생하는 인격모독적인 발언의 영향에 보다 더 잘 대응할 수 있도록 노력해왔습니다. 대중과 외부 전문가, 트위터 내부팀과 나눈 수 많은 대화와 피드백을 통해 가장 먼저 종교를 기반으로 한 인격 모독적인 발언에 대해 혐오 행위 관련 정책 범위를 확장하는 것으로 시작하려 합니다.

트위터의 정책은 “인종, 민족, 국적, 성적 성향, 성별, 성 정체성, 종교, 나이, 장애, 심각한 질병 등을 이유로 타인에게 폭력을 조장하거나, 직접적인 공격 혹은 위협할 수 없다.”고 명시하고 있습니다. 또한 이러한 범주의 특성을 바탕으로 다른 사용자에게 피해를 주는 것이 주된 목적인 계정은 허용하지 않고 있습니다. 

트위터는 피드백을 통해 얻은 정보를 바탕으로, 인격모독 발언과 관련해 “종교와 관련된 인격 모독적인 발언은 오프라인까지 해악을 초래할 수 있으므로 허용하지 않는다”는 조항을 덧붙였습니다. 오늘부터 트위터는 다음과 같은 트윗을 금지합니다.

볼 수 없는 트윗입니다
볼 수 없는 트윗입니다.

트위터 사용자들은 개인을 향한 직접적인 인격 모독 발언이 아닐지라도 안전하지 않음을 느낀다고 응답했습니다. 트위터가 받은 피드백과 연구결과에 비추어 볼 때, 해가 될 수 있는 잠재적인 위험을 줄이기 위해 혐오 행위 관련 정책을 확장할 필요를 느꼈습니다. 이러한 시도는 처음이기 때문에 향후 업데이트된 정책이 미치는 영향을 보고, 더 많은 지역사회를 보호하기 위해 어떻게 정책을 확대할 수 있을지 확인할 계획입니다. 

 

왜 좁은 범위에만 적용하고 있나요? 종교에만 적용하는 이유가 있나요?  

트위터는 지난해 본 정책이 다른 지역사회와 문화에 어떻게 영향을 미칠 수 있는지 알고자 다양한 사람들에게 피드백을 요청했습니다. 2주 동안 30개 이상의 국가에 거주하는 8,000명 이상의 사람들로부터 응답을 받았습니다.

 

피드백 중 가장 큰 부분을 차지했던 것은 트위터가 어떻게 정책을 구체화하고, 설명하며 집행하는지에 대해 명확하게 밝히길 원하는 것이었습니다.

  • 명확한 언어 - 언어 전반에 걸쳐, 사람들은 더 자세한 내용, 위반 사례 및 문맥에 대한 설명 제공을 통해 정책이 개선될 수 있다고 응답했습니다. 트위터는 몇 주 전 업데이트된 정책을 도입하면서 이러한 피드백을 반영했습니다.
  • 고려 대상의 범위 축소 - 응답자들은 ‘특정 집단’이 너무 광범위하며 정치 단체, 증오 집단, 기타 이해관계가 없는 집단을 대상으로 한 언행을 위법으로 규정해서는 안 된다고 말했습니다. 많은 사람들은 "방식과 시간의 제한 없이 증오 집단을 당당하게 질책 할 수 있길" 원했습니다.  이와 다른 예로, 사람들은 "고양이"와 "괴물"과 같은 단어를 팬, 친구, 팔로어들을 애칭할 때 사용 할 수 있기를 희망했습니다.
  • 지속적인 집행 - 많은 사람들이 운영 원칙을 공정하고 일관성 있게 집행할 수 있을지에 대한 우려를 제기했습니다. 이 피드백을 통해 트위터 팀은 어떤 조치를 시행 할 것인지 명확하게 할 필요성을 인지하고 인큐베이션 과정을 발전 시키는 방법을 채택했습니다. 이에 따라 시행 지침, 작업흐름 및 교육에 대한 압박 테스트 시행에 더 많은 시간을 할애했습니다. 이는 개인적인 목표를 설정할 필요가 없는 첫 시도였고, 보고 된 트윗 내용에서 어떤 것을 식별해야 하는지 확실히 알아내는 것이 훨씬 더 중요했습니다.

 

이번 피드백을 통해 가장 영향력 있는 정책을 만들기 위해선 더 다양한 요소들을 다루고 앞으로 어떻게 시행할지 명확히 해야 한다는 것을 알게 되었습니다. 여기에는 다음과 같은 내용이 포함되어 있습니다:

  • 소외 그룹 간의 대화 내용을 어떻게 보호하고 있나요? 예를 들어, 보호받는 그룹(인종, 성별, 성적 성향 등)이 자신의 커뮤니티에서 사용할 수 있도록 되찾은 용어를 계속해서 사용하고 자신의 목소리를 내어 토론하며 사람들이 대중 대화에 자유롭고 안전하게 참여할 수 있도록 어떻게 보장하고 있나요? 이러한 발언이 오프라인에서 유해한 결과를 가져올 가능성이 얼마나 되나요? 
  • 트위터의 정책 시행 조치가 위반의 정도를 반영하고 있음을 어떻게 보장하나요? 이러한 언쟁에서 세력의 위해성 및 불균형의 가능성을 어떻게 고려할 수 있나요? 
  • 트위터는 대다수의 사용자들이 악의적이지 않음을 인지하고 있으며, 그들의 동기를 더 잘 이해하고 적절하고 공정하게 본 규정을 시행하기 위해 어떠한 전후사정을 파악하고 적용해야 할지 고려해야 합니다.

우리는 전세계인들을 위한 트위터를 만들기 위해 계속해서 노력할 것이며, 여러분들의 의견이 트위터의 정책, 제품, 운영 방식 형성에 반영될 수 있도록 할 것입니다. 트위터가 이러한 정책을 펼쳐 나감에 따라 새롭게 알게되는 사실들과 이에 대한 대처 방안을 상시 공유드릴 예정입니다. 또한 우리는 트위터가 하고 있는 일에 대해 정기적인 업데이트를 공유함으로써 트위터가 모두에게 안전한 공간이 될 수 있도록 할 것입니다. @TwitterSafety

 

*인격모독 발언과 오프라인 유해성의 관계에 대한 연구 예시

볼 수 없는 트윗입니다
볼 수 없는 트윗입니다.