Produto

Transparência sobre cortes de imagem e próximas mudanças

Estamos sempre nos esforçando para trabalhar de uma forma que seja transparente e fácil para todos entenderem, mas nem sempre conseguimos. Algumas conversas recentes sobre nossos métodos de cortes de imagem trouxeram isso à tona. Por isso, na semana passada, revisamos possíveis formas de vieses em nossos sistemas e discutimos como melhorar a exibição de imagens no Twitter. Então, mesmo que nós ainda tenhamos muito o que fazer, queremos compartilhar como estamos desenvolvendo soluções para cada uma dessas áreas.

Como testamos nossos sistemas

Nós fizemos testes no sistema de machine learning já existente que determina de que forma as imagens serão cortadas antes que elas sejam publicadas no Twitter. Nós deveríamos ter compartilhado essa informação à medida que fizemos os testes para que a análise pudesse ser reproduzida externamente. Este foi um descuido.

O sistema de corte de imagens se baseia na área de destaque (saliência), que prevê para onde as pessoas podem olhar primeiro. Em nossa análise inicial para detectar vieses, testamos a preferência do sistema entre dois grupos demográficos (branco e negro, branco e indiano, branco e asiático, e homem e mulher). Em cada teste, combinamos dois rostos na mesma imagem, com ordem aleatória, e avaliamos o mapa de saliência (ou seja, a área de maior destaque) sobre a imagem combinada. Em seguida, localizamos a parte mais destacada e registramos em qual categoria demográfica ela se deu. Repetimos isso 200 vezes para cada par de categorias demográficas e avaliamos a frequência de preferência por uma em relação à outra.

Embora nossas análises até o momento não tenham mostrado viés racial ou de gênero, reconhecemos que a maneira como cortamos as fotos automaticamente significa que há potencial para danos. Deveríamos ter feito um trabalho melhor ao imaginar essa possibilidade quando estávamos projetando e construindo este produto. Estamos conduzindo análises adicionais para deixar nossos testes mais rigorosos. Além disso, estamos comprometidos em compartilhar nossas descobertas e explorando maneiras de abrir o código de nossas análises para que outras pessoas possam nos ajudar e responsabilizar.

Próximas mudanças

Estamos priorizando o trabalho para diminuir a dependência do corte de imagens baseado em machine learning, dando às pessoas mais controle sobre como suas imagens ficarão em um Tweet. Começamos a explorar diferentes opções para ver o que funcionará melhor para a ampla gama de imagens que as pessoas Tweetam todos os dias. Esperamos que dar às pessoas mais opções para cortar imagens e visualizar sua aparência na hora de Tweetar ajude a reduzir o risco de danos.

Nos comprometemos em seguir os princípios de design “o que você vê é o que você obtém”, ou seja, a foto que você vê na hora que estiver compondo um Tweet é a imagem que irá aparecer em seu Tweet publicado. Podemos ter algumas exceções, como fotos que não são do tamanho padrão ou são realmente longas ou largas. Nesses casos, precisaremos testar como apresentamos a foto de uma forma que não tire o ponto focal pretendido ou prejudique a integridade da foto.

O viés no machine learning é um problema de todo o setor e, no Twitter, estamos empenhados em melhorar. Estamos cientes de nossa responsabilidade e queremos trabalhar para tornar mais fácil o entendimento de como nossos sistemas funcionam. Embora nenhum sistema possa ser completamente isento de viés, continuaremos a minimizá-lo por meio de análises deliberadas e completas, e compartilharemos atualizações do nosso progresso.

Há muito trabalho a ser feito, mas agradecemos a  todos que se manifestaram e compartilharam comentários sobre essa questão. Estamos ansiosos para melhorar e compartilharemos atualizações adicionais assim que as tivermos.

Este Tweet está indisponível
Este Tweet está indisponível.
@paraga

Parag Agrawal

‎@paraga‎ verified

Chief Technology Officer

@dantley

Dantley Davis

‎@dantley‎ verified

Chief Design Officer

Só no Twitter