L’algorithme d’IA de recadrage d’images de Twitter favorise les personnes qui semblent plus jeunes, plus minces et qui ont la peau plus claire, ainsi que les personnes en bonne santé.
L’algorithme de saillance est utilisé pour recadrer automatiquement les images publiées sur la plate-forme de médias sociaux. Il se concentre sur les parties les plus intéressantes de l’image pour attirer l’attention des gens lorsqu’ils font défiler vos flux Twitter. L’année dernière, les internautes ont découvert que l’outil préférait les photos de femmes aux hommes et de personnes à la peau plus claire aux peaux plus foncées.
Les ingénieurs de l’équipe ML Ethics, Transparency and Accountability (META) de Twitter ont par la suite confirmé ces préjugés. Pour tenter de découvrir d’autres failles potentielles dans leur algorithme de recadrage d’images, le groupe a parrainé un concours de primes de biais algorithmique organisé plus tôt cette année. DEF AVEC conférence sur le piratage informatique à Las Vegas et organisée par AI Village, une communauté de pirates informatiques et de scientifiques des données travaillant à l’intersection de l’apprentissage automatique et de la sécurité.
Les trois premiers résultats annoncés cette semaine ont révélé que l’algorithme de pertinence de Twitter préférait les personnes qui semblaient plus conventionnellement attrayantes, l’anglais plutôt que l’arabe, et étaient plus susceptibles de trouver des personnes en fauteuil roulant.
Le lauréat, Bogdan Kulynych, étudiant diplômé de l’École polytechnique fédérale de Lausanne en Suisse, a reçu 3 500 $. Il a généré une série de faux visages et modifié leurs apparences pour tester ceux qui ont obtenu les notes les plus élevées dans les scores de proéminence selon l’algorithme de Twitter.
“Le modèle cible est biaisé vers (…) les représentations de personnes qui semblent minces, jeunes, de couleur claire ou chaude et à la texture de peau lisse, et avec des traits du visage stéréotypés féminins”, a-t-il déclaré. en disant.
La deuxième place est revenue à Halt AI, une startup canadienne, qui a constaté que l’outil problématique avait biais spatiaux et les personnes étaient plus susceptibles d’apparaître plus bas sur les photographies assises en fauteuil roulant que celles debout. Les personnes âgées aux cheveux blancs ou gris étaient également plus susceptibles d’être exclues des aperçus d’images créés par l’algorithme. Halt AI a obtenu un financement de 1 000 $.
Roya Pakzad, qui a fondé TaraazResearch, une organisation à but non lucratif axée sur la technologie et les droits de l’homme, est arrivée en troisième position. Elle textes traduits Dans les mèmes de l’anglais à l’arabe et les a alimentés à l’algorithme de proéminence, le logiciel a favorisé l’anglais. Twitter favorise les utilisateurs anglophones qui sont plus susceptibles d’être dans les pays occidentaux que dans d’autres langues. Elle a reçu 500 $.
Twitter a déclaré qu’il avait cessé d’utiliser l’outil de recadrage automatique d’images depuis mars sur son application mobile. Rich Harang, un chercheur en apprentissage automatique bénévole pour AI Village, a applaudi Twitter pour avoir parrainé le défi. “Twitter a maintenant le même problème que quiconque organise un concours de bug bounty : comment réparer ce que les concurrents ont trouvé”, a-t-il déclaré. Le registre.
« Les résultats ont donné à Twitter plusieurs nouveaux exemples de dommages représentatifs causés par son modèle de pertinence, mais peut-être plus important encore, les nouveaux outils et approches développés par les participants au concours peuvent aider Twitter à continuer à rechercher des problèmes de biais supplémentaires au-delà des dommages représentatifs. La prochaine étape pour Twitter est de trouver comment tirer parti de ces nouveaux outils et atténuer les nouveaux dommages qui ont été découverts. »
Le registre a contacté Twitter pour commenter. ®
“Introverti hardcore. Pionnier de la bière. Amoureux d’Internet. Analyste. Spécialiste de l’alimentation. Passionné de médias sociaux.”