Entreprise

Notre initiative de machine learning responsable

Par et
mercredi, 14 avril 2021

L'évolution vers des systèmes de machine learning (ML) responsables, réactifs et axés sur notre communauté est un processus collaboratif. Aujourd'hui, nous voulons partager le travail que nous avons effectué afin d’améliorer nos algorithmes de machine learning et esquisser la voie que nous souhaitons emprunter dans le cadre de notre initiative transverse de “machine learning responsable”.

Le machine learning responsable repose sur les piliers suivants :

  • Assumer la responsabilité de nos décisions algorithmiques
  • L'équité et l'impartialité des résultats
  • La transparence sur nos décisions et la manière dont nous les avons prises
  • Favoriser le contrôle et le choix algorithmique pour l’utilisateur

Une utilisation responsable de ces technologies implique d'étudier les effets qu'elles peuvent avoir dans le temps. Lorsque Twitter utilise le machine learning, celui-ci peut avoir un impact sur des centaines de millions de Tweets par jour et parfois, la façon dont un système a été conçu peut se comporter différemment de ce qui était prévu. Ces changements subtils peuvent alors avoir un impact sur les personnes qui utilisent Twitter et nous voulons nous assurer que nous étudions avec précision ces changements et que nous les utilisons pour construire un meilleur produit.

Nos équipes impliquées et les actions que nous prenons

Les solutions techniques ne suffisent pas à résoudre les potentiels effets néfastes des décisions algorithmiques. Notre groupe de travail sur le machine learning responsable est interdisciplinaire et se compose de personnes issues de toute l'entreprise, notamment des équipes techniques, de recherche, de confiance et de sécurité ainsi que du produit.

À la tête de ce travail se trouve notre équipe “Machine Learning Ethics, Transparency and Accountability” (META) : un groupe dédié d'ingénieurs, de chercheurs et de data scientists collaborant à travers l'entreprise afin d’évaluer les préjudices involontaires en aval ou en amont liés à nos algorithmes, et d’aider Twitter à hiérarchiser les problèmes à traiter en priorité.

Voici comment nous abordons cette initiative :

Rechercher et comprendre l'impact des décisions de machine learning. Nous menons des analyses et des études approfondies pour évaluer l'existence de préjudices potentiels dans les algorithmes que nous utilisons. Voici quelques analyses auxquelles vous aurez accès dans les mois à venir :

  • Une analyse des préjugés fondés sur le genre ou l'appartenance ethnique de notre algorithme de cadrage d'images
  • Une évaluation de l'équité de nos recommandations sur le fil d'actualité à travers des sous-groupes ethniques
  • Une analyse des recommandations de contenu pour différentes idéologies politiques dans sept pays

Appliquer nos connaissances pour améliorer Twitter. Les applications les plus importantes en matière de machine learning responsable viendront de la façon dont nous appliquons nos connaissances pour construire un meilleur produit. L'équipe META étudie le fonctionnement de nos systèmes et utilise ces résultats pour améliorer l'expérience de chacun de Twitter. Cela peut se traduire par une modification de notre produit, par exemple en supprimant un algorithme et en donnant aux personnes un plus grand contrôle sur les images qu'elles Tweetent, ou par de nouvelles normes sur la manière dont nous concevons et élaborons nos politiques lorsqu'elles ont un impact disproportionné sur une communauté particulière. Les résultats de ce travail ne se traduiront pas toujours par des changements visibles dans nos produits, mais ils conduiront à une sensibilisation accrue et à des discussions importantes sur la façon dont nous construisons et appliquons le machine learning.

Nous élaborons également des solutions de machine learning plus explicables afin que vous puissiez mieux comprendre nos algorithmes, les paramètres qui les sous-tendent et leur impact sur ce que vous voyez sur Twitter. De même, un plus grand choix algorithmique permettra aux utilisateurs d'avoir plus d'influence et de contrôle afin de personnaliser leur expérience de Twitter. Nous en sommes actuellement aux premières étapes de l'exploration de cette possibilité et nous vous partagerons plus d'éléments prochainement.

Partager nos connaissances et collecter vos retours. Tant à l'intérieur qu'à l'extérieur de l’entreprise, nous partagerons nos connaissances et nos bonnes pratiques afin d'améliorer la compréhension collective du secteur sur ce sujet, de nous aider à améliorer notre approche et de nous responsabiliser. Ces informations pourront prendre la forme de recherches évaluées par des pairs, d'aperçus de données, de bilans de nos résultats ou de nos approches, voire de certaines de nos tentatives infructueuses pour relever ces nouveaux défis. Nous continuerons à travailler en étroite collaboration avec la communauté académique afin d'identifier les leviers d'amélioration de notre travail et d'encourager leurs commentaires.

Le public joue un rôle essentiel dans la construction de Twitter et notre initiative de machine learning responsable s’inscrit dans cette lignée. Les commentaires du public sont particulièrement importants lorsque nous évaluons l'équité des systèmes de machine learning que nous utilisons. De meilleures décisions, plus informées, sont prises lorsque celles et ceux qui utilisent Twitter font partie du processus, et nous cherchons à créer davantage d'opportunités pour que tout le monde puisse partager ses idées sur la façon dont le machine learning est utilisé sur Twitter. 

Prochaines étapes

Le machine learning responsable est un long chemin qui n'en est qu'à ses débuts. Nous voulons l'explorer avec un esprit d'ouverture dans le but de contribuer positivement au domaine de l'éthique technologique. Si vous avez des questions sur le machine learning responsable, ou sur le travail de l'équipe META, n'hésitez pas à nous les poser en utilisant #AskTwitterMETA. Si vous souhaitez nous aider, alors rejoignez-nous.

Ce Tweet n'est pas disponible
Ce Tweet n'est pas disponible.