Actualités
Actualités Tech

Les algorithmes d’IA classent notre attractivité


Comparez deux images de Beyonce Knowles issues de la recherche de Lauren Rhue à l’aide de Face ++. Son IA prévoit 74 776% pour les hommes et 77 914% pour les femmes. Pendant ce temps, la bonne image atteint 87,468% pour les hommes et 91,14% pour les femmes dans son modèle..

Le score de beauté, a-t-elle déclaré, fait partie d’un mouvement inquiétant entre une culture de la beauté intrinsèquement malsaine et les algorithmes recommandés que nous rencontrons quotidiennement en ligne. Par exemple, lorsque le score est utilisé pour décider quels messages apparaissent sur les plateformes de médias sociaux, il renforce la définition de ce qui est perçu comme convaincant et attire l’attention de ceux qui ne le font pas. Se conforme à l’idéal strict de la machine. « Nous réduisons les types d’images disponibles pour tout le monde », a déclaré Rhue.

C’est un cercle vicieux: avec plus de personnes prêtant attention au contenu avec des personnes plus engageantes, ces images peuvent attirer des niveaux d’engagement plus élevés, de sorte qu’elles sont toujours visibles par plus de personnes. En fin de compte, même si un score de beauté élevé n’est pas la raison directe pour laquelle le message vous est montré, c’est un facteur indirect.

Dans une apprendre publiée en 2019, elle a examiné deux algorithmes, l’un pour les scores de beauté et l’autre pour prédire l’âge, comment ils influencent l’opinion des gens. On a montré aux participants des photos de personnes et on leur a demandé d’évaluer la beauté et l’âge des sujets. Certains participants ont vu un score AI avant de donner leur réponse, tandis que d’autres n’ont pas vu de score AI du tout. Elle a constaté que les participants n’ayant aucune connaissance des évaluations de l’IA ne montraient aucun biais supplémentaire; Cependant, savoir comment l’IA classe l’attractivité des gens a conduit les gens à obtenir des scores plus proches des résultats produits par l’algorithme. Rhue appelle cela «l’effet d’ancrage».

«Les algorithmes proposés changent vraiment nos préférences», a-t-elle déclaré. «Et le défi d’un point de vue technologique, bien sûr, n’est pas de trop les réduire. En ce qui concerne la beauté, nous voyons beaucoup plus étroit que ce à quoi je m’attendais. « 

« Je ne vois aucune raison de ne pas évaluer votre erreur, car il existe de nombreuses façons de la corriger. »

Shafee Hassan, Studio Qoves

A Qoves, Hassan a déclaré qu’il essayait de résoudre le problème lié à la race. Lorsqu’il fait un rapport d’analyse faciale détaillé – le genre que le client paie – son studio essaie d’utiliser les données pour classer les visages par ethnicité afin que les gens ne soient pas simplement jugés sur l’idée des Européens. « Vous pouvez vous débarrasser de ce préjugé européen simplement en étant la plus jolie version de vous-même, la meilleure version de votre peuple, la meilleure version de votre race », a-t-il déclaré.

Mais Rhue se dit préoccupée par le fait que ce type de taxe ethnographique soit intégré plus profondément dans notre infrastructure technologique. « Le problème est que les gens le font, peu importe comment nous le voyons, et il n’y a aucune sorte de réglementation ou de surveillance », a-t-elle déclaré. « En cas de conflit, les gens essaieront de savoir qui appartient à quel genre. »



Source link

Laissez un commentaire