La reconnaissance faciale serait coupable de biais raciste selon la conclusion d’une étude faite par une chercheuse du MIT de Boston. D’après cette scientifique, la plupart des logiciels identifient aisément les visages des hommes à la peau blanche contrairement à ceux de couleur noire.
Un test effectué sur 1 270 photos
Est-il possible que la créature échappe aux faiblesses de son créateur ? C’est la question qui se pose quand on étudie les performances des logiciels de reconnaissance faciale présents sur le marché. Joy Buolamwini, une chercheuse travaillant au Massachusetts Institute of Technology de Boston a testé de façon poussée les programmes d’intelligence artificielle utilisés par IBM, Face ++ et Microsoft.
Les résultats parlent d’eux-mêmes. 1 270 portraits de personnalités politiques pris dans le monde entier ont été soumis aux trois programmes. Ces derniers ont eu une grande difficulté dès qu’il fallait identifier le visage d’un Noir. Ils ont aussi eu plus de mal à différencier les femmes que des hommes.
Des Noirs confondus avec des gorilles
En général, les IA ont de bons résultats : Microsoft obtient 93,7 %, Face ++ s’en sort avec 90 % tandis qu’IBM réalise un score de 87,9 % dans la reconnaissance du genre des personnes présentées sur la photo. Si l’on entre dans le détail, les écarts sont plus grands dès que la couleur de peau est prise en considération. Ainsi, la moyenne de performance des IA concernant la reconnaissance d’une peau blanche est de 95 %. Elle descend à 77,6 % chez IBM pour les personnes de couleur noire.
Par contre, Face ++ montre une faiblesse dans la reconnaissance des femmes, son taux est de 78,7 %. Pour Joy Buolamwini, la faute vient des bases de données d’images utilisées pour entraîner les trois programmes. Il ne s’agit pas d’une nouveauté : en 2015, Google corrigeait en urgence Google Photos, car ce dernier confondait de temps en temps les personnes noires avec des gorilles !
Ça vous a plu ? 4.6/5 (23)