Au terme d’un arrêt de 59 pages, la cour d’appel de Londres a jugé illicite le déploiement des caméras de reconnaissance faciale par la police galloise. Elle ne dénonce pas le principe même de cette technologie, mais le manque d’encadrement de cette expérience.
L’un des problèmes, le risque de biais :
Un autre point, dont l’analyse d’impact a été trop avare de détails, concerne le risque de biais de ce système. « Des preuves scientifiques existent selon lesquelles les logiciels de reconnaissance faciale peuvent être biaisés et créer un plus grand risque de fausses identifications dans le cas de personnes d’origine noire, asiatique et d’autres minorités ethniques [BAME, pour Black, Asian, and minority ethnic, ndlr], ainsi que dans le cas des femmes ».
# En bref
Posté par Ysabeau (site web personnel, Mastodon) . Évalué à 5.
Je copie-colle le chapeau :
L’un des problèmes, le risque de biais :
On peut télécharger l’arrêt, en anglais donc.
« Tak ne veut pas quʼon pense à lui, il veut quʼon pense », Terry Pratchett, Déraillé.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.