Artigos

Como o Twitter está incentivando os usuários a terem conversas mais saudáveis

Por
quarta-feira, 1 junho 2022

No calor de uma discussão, todos nós já dissemos coisas das quais nos arrependemos. Não há botão de pausa para momentos como esses na vida real. Mas, quando se trata de debates on-line que acabam indo por um mau caminho, o tipo de briga que termina em xingamentos e respostas indesejadas na sua página inicial, é possível contar com uma ajuda digital, fundamentada em um mecanismo do comportamento humano muito estudado.  

Os cientistas sociais chamam isso de nudges. São dicas sutis que influenciam nossas ações, seja removendo obstáculos para que seja mais fácil fazer algo (como assistir ao próximo episódio de seu programa de streaming favorito sem precisar clicar em um botão) ou criando atrito para tornar uma ação mais difícil (como lombadas que impedem de dirigir rápido em uma zona escolar). Eles estão tão incorporados em nossas vidas que dificilmente os reconhecemos pelo papel que desempenham nas nossas decisões diárias. 

O Twitter tem feito experiências com nudges para ajudar a criar um ambiente on-line mais saudável, que reflita o que esperamos quando interagimos uns com os outros na vida real. A equipe já observou resultados positivos no impacto que esses nudges podem ter para facilitar conversas mais saudáveis em inglês. Agora, eles estão sendo expandidos para idiomas como português, espanhol e turco.

Paul Lee, gerente de produto sênior do grupo de Conteúdo Saudável do Twitter, tem trabalhado com uma equipe de pesquisadores, designers, redatores, cientistas de dados e engenheiros para encontrar maneiras de quebrar os ciclos de feedback negativo, não apenas para diminuir comentários abusivos, mas para ajudar a normalizar comportamentos mais saudáveis que lembrem as pessoas de que seres humanos reais vão receber aquelas mensagens. Uma das maneiras de fazer isso é construindo mecanismos que pedem aos usuários que façam uma pausa antes de postar algo potencialmente nocivo.

Um novo recurso que incentiva as pessoas a reconsiderar as respostas a Tweets contendo linguagem nociva está obtendo resultados promissores, com pessoas alterando ou excluindo suas respostas em mais de 30% dos casos entre usuários em inglês nos Estados Unidos e cerca de 47% entre usuários em português no Brasil.

Há um campo da economia comportamental que defende como o uso dessas técnicas pode nos ajudar a projetar um mundo mais seguro e produtivo. O Reino Unido tem até um braço de seu governo apelidado de “Unidade Nudge”, que visa aplicar a ciência comportamental às políticas públicas. Incentivar os cidadãos a fumar menos, votar mais e economizar energia, por exemplo, pode tornar as comunidades mais saudáveis, mais engajadas e mais limpas? Poderíamos aplicar essas mesmas técnicas para melhorar nossas comunidades on-line? O Twitter tem explorado isso ativamente.

O Twitter pode convencer as pessoas a se comportarem melhor?   

O Twitter tem regras estritas contra o assédio e o comportamento abusivo. Mas há certos tipos de linguagem nociva que não chegam a configurar uma violação das regras.

“Vimos e ouvimos que esse tipo de comportamento é uma das principais razões pelas quais as pessoas saem do Twitter”, diz Lee, acrescentando que tal conteúdo, em grandes volumes, pode ser especialmente ameaçador para comunidades e grupos historicamente excluídos, que demonstraram experimentar níveis desproporcionais de abuso. “Ou eles não usam a plataforma, ou evitam usá-la de certas maneiras porque temem que um comportamento abusivo mais grave possa resultar em danos diretos.” 

É por isso que a equipe tem usado nudges, um aviso que aparece se você tentar responder a alguém usando linguagem nociva ou ofensiva, como forma de incentivar um comportamento melhor. 

Funciona da seguinte maneira: quando uma pessoa escreve uma resposta potencialmente ofensiva a um Tweet e clica no botão "responder" para publicar o texto, aparece um pop-up perguntando se ela gostaria de revisar a postagem antes de Tweetar. A mensagem inclui as opções "Editar", "Excluir" ou "Tweetar" conforme escrito originalmente. Se a pessoa clicar em “Tweetar”, a resposta será postada como ela digitou inicialmente. Aqueles que clicarem em “Editar” poderão editar o texto do Tweet antes de enviar. A opção “Excluir” cancela totalmente a postagem proposta.

Este post está indisponível
Este post está indisponível.

O Twitter projetou essa intervenção para tentar trazer mais consciência aos momentos em que as pessoas podem ser pegas de “cabeça quente” – quando estão prestes a usar palavras das quais podem se arrepender mais tarde. 

"Uma das principais motivações por trás disso foi alcançar os usuários que podem passar por uma perda temporária de compostura e lembrá-los:  ei, aproveite este momento para parar e refletir sobre o que você está tentando dizer e seja mais ponderado e construtivo, mesmo se estiver discordando de alguém”, diz Lee.  

Cody Elam, pesquisador da equipe que conversou com os usuários para entender como interagem no Twitter, conta que eles têm uma frase para esses casos: “chamamos esses momentos de lamentáveis.”

“Nossos dados mostram, com base em diversas pesquisas, que muitas  pessoas adotam um comportamento semelhante ao do troll, ou lamentável, quando estão em um momento ruim", diz ele. 

Em uma das pesquisas que a equipe realizou durante o processo de desenvolvimento dos nudges, a maioria das pessoas admitiu que Tweetou algo de que se arrependeu ou excluiu algo depois porque se sentiu mal.

Os primeiros sinais de utilidade

O Twitter vem fazendo testes com nudges desde 2020, incluindo uma versão anterior do seu aviso de resposta ofensiva. Porém, o mais reconhecido é, provavelmente, o aviso “Quer ler o artigo primeiro?”, que aparece quando você tenta Retweetar um artigo sem antes clicar nele. Esses avisos são a forma como o Twitter incentiva uma discussão mais embasada: o número de pessoas que abriram os artigos antes de Retweetar aumentou 33% depois do lançamento do nudge.  

Liderada por Alberto Parrella, gerente de produto do Twitter, a empresa começou a testar a versão mais recente do aviso de respostas ofensivas em fevereiro de 2021. Durante seis semanas, a equipe estudou o desempenho dessas intervenções, em comparação com um grupo de controle que não recebeu nenhum aviso. A equipe por trás do experimento, Matthew Katsaros, que é consultor de pesquisa em tempo parcial no Twitter e diretor da Iniciativa de Governança de Mídia Social na Yale’s Justice Collaboratory, e as cientistas de dados do Twitter Kathy Yang e Lauren Fratamico, compilaram suas descobertas em um artigo acadêmico que será publicado em junho. 

Os resultados sugerem que os nudges podem encorajar um discurso menos ofensivo sem prejudicar a participação nas conversas on-line. As pessoas que foram incentivadas a reconsiderar suas respostas optaram por cancelá-las em 9% dos casos e revisá-las em 22% dos casos (37% optaram por uma alternativa menos ofensiva). No geral, aqueles que receberam avisos postaram 6% menos Tweets ofensivos.

A equipe também observou uma redução tanto no número de Tweets ofensivos futuros escritos por usuários que receberam os nudges, como na quantidade de respostas ofensivas que eles receberam.   

Yang, a principal cientista de dados envolvida no experimento, acrescentou que esses resultados vão além de mostrar como os avisos podem ser uma ferramenta eficaz para diminuir o conteúdo nocivo e abusivo na plataforma. Eles também representam uma mudança na forma como as redes de mídia social podem pensar sobre a moderação de conteúdo. 

Ajudando a expressão em vez de inibi-la

À medida que o Twitter continua a explorar maneiras de reduzir o conteúdo nocivo e incentivar os usuários a fazerem uma pausa para se envolverem de formas mais construtivas e ponderadas, eles também precisam entender as diferentes necessidades das pessoas. Tratamentos universais que são aplicados a todas as contas igualmente, como nudges, são apenas uma das maneiras de reduzir esse conteúdo em geral. 

“O que estamos buscando para o futuro é menos dependência desses tratamentos universais e mais foco em controles e configurações personalizados que permitam aos usuários que não querem ver conteúdo potencialmente ofensivo evitá-los com sucesso, além de barrar os tipos de contas  que compartiilham esse tipo de conteúdo”, diz Lee. 

“Primeiro, você quer que a plataforma lembre e eduque as pessoas sobre normas pró-sociais [através de recursos com os nudges],” diz ele. “Mas a mudança mais poderosa é dar às pessoas controle suficiente para impor suas próprias preferências e regras. Esperamos que isso leve a uma experiência de usuário mais saudável, mais relevante e de maior qualidade em geral.”

Este post está indisponível
Este post está indisponível.