Découper des points de données groupés pour réduire le biais de reconnaissance faciale expliqué dans la conférence AFRL
MaisonMaison > Blog > Découper des points de données groupés pour réduire le biais de reconnaissance faciale expliqué dans la conférence AFRL

Découper des points de données groupés pour réduire le biais de reconnaissance faciale expliqué dans la conférence AFRL

Sep 01, 2023

Malgré la présence de nombreux "gros frappeurs" dans le discours public sur les biais dans la reconnaissance faciale, l'incompréhension sur la nature du problème et son origine est répandue, selon une récente conférence dans le cadre de la série de discussions virtuelles de l'Applied Face Recognition Lab. .

John Howard, scientifique principal des données du Laboratoire des sciences de l'identité et des données du Maryland Test Facility, a approfondi la question dans une présentation intitulée "Comprendre et atténuer les biais dans la reconnaissance faciale humaine et machine".

Alors que de nombreux observateurs, dont beaucoup travaillent en informatique et en vision artificielle, soulignent le rôle des données comme cause de biais dans les performances des algorithmes biométriques, Howard note qu'il existe de nombreuses sources possibles.

"Je pense aussi que le simple fait de blâmer les données est, franchement, un moyen d'esquiver des problèmes probablement plus difficiles et plus intéressants", explique Howard. C'est une tendance qui est attrayante, car elle conduit à une résolution à laquelle les data scientists sont habitués et avec lesquels ils sont à l'aise ; l'ingestion de plus de données.

La fonction de perte, le biais d'évaluation et la façon dont les gens se rapportent aux machines sont importants pour une compréhension plus complète de la question du biais dans la reconnaissance faciale, soutient Howard. Ce dernier problème comprend le biais de projection, le biais de confirmation et le biais d'automatisation. En d'autres termes, les gens ont tendance à s'attendre à ce que les machines se comportent comme eux, confirment leurs croyances et produisent des résultats qui n'ont pas besoin d'être vérifiés.

Le visage est une modalité biométrique moins mature que l'empreinte digitale et l'iris, dit Howard, et des leçons peuvent éventuellement être tirées des deux modalités plus anciennes des "trois grands". Cependant, les "problèmes uniques" peuvent être présentés par des éléments uniques à la modalité du visage.

Les fausses correspondances produites par les algorithmes de reconnaissance de l'iris, par exemple, se croisent souvent entre les sexes et les ethnies, contrairement à ceux en face. Cela rend plus difficile pour les gens de repérer les erreurs dans l'appariement des visages, malgré l'utilisation de la même terminologie ("erreur de fausse correspondance") dans chaque cas.

Howard a passé en revue plusieurs documents de recherche démontrant à quel point les biais sont différents. Le biais d'automatisation est modeste et, dans des circonstances idéales, apparaît principalement lorsque les gens ne sont pas sûrs, par exemple. Lorsque les circonstances sont moins idéales, comme lorsque les gens portent des masques, les gens sont plus susceptibles de privilégier l'évaluation d'un ordinateur.

Il a également passé en revue l'effet de la "large homogénéité" et les conclusions de la partie 3 du FRVT du NIST, qui évalue les biais dans les algorithmes sur une base individuelle.

En fin de compte, bien que les visages contiennent des données similaires ou "regroupées" basées sur la démographie, Howard souligne que la recherche indique qu'il est possible de sélectionner des points de données particuliers qui ne présentent pas de regroupement, afin de réduire les erreurs de fausses correspondances qui équivalent à un biais dans la biométrie du visage, en particulier quand un humain est dans la boucle. En effet, les algorithmes renvoient des listes de candidats qui ressemblent soudainement davantage à celles de la reconnaissance des empreintes digitales et de l'iris. Le bon candidat, dans de nombreux cas, est évident à l'œil humain.

précision | biais biométrique | biométrie | reconnaissance faciale | Installation d'essai du Maryland (MdTF)

Ce site utilise Akismet pour réduire le spam. Découvrez comment les données de vos commentaires sont traitées.

Continuer la lecture