IBM ne développera plus de technologie de reconnaissance faciale pour la surveillance de masse

0
78


IBM a déclaré hier qu’elle ne proposera ni ne développera de technologie de reconnaissance faciale à usage général pour encourager une utilisation responsable de la technologie par les forces de l’ordre. L’entreprise est un acteur important dans ce domaine depuis des années et propose plusieurs solutions.

Dans une lettre au Congrès, le PDG d’IBM, Arvind Krishna, a évoqué la mort de George Floyd, Ahmaud Arbery et Breonna Taylor, et a déclaré que la société souhaitait travailler avec les responsables pour atteindre l’égalité raciale.

M. Krishna a suggéré qu’il fallait procéder à des changements politiques clés en réformant la police, en utilisant la technologie de manière responsable et en élargissant les compétences et les possibilités d’éducation. À cette fin, il a déclaré qu’IBM ne proposera pas de technologie de reconnaissance faciale à usage général, car elle pourrait être utilisée pour la surveillance de masse :

IBM s’oppose fermement et ne tolérera pas l’utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d’autres fournisseurs, à des fins de surveillance de masse, de profilage racial, de violation des droits et libertés fondamentales de l’homme, ou à toute autre fin qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence. Nous pensons que le moment est venu d’entamer un dialogue national sur l’opportunité et la manière dont la technologie de reconnaissance faciale devrait être utilisée par les services répressifs nationaux.

La reconnaissance faciale utilisée pour la surveillance a été une source d’inquiétude pour les spécialistes de la protection de la vie privée. Au début de l’année, le rapport du New York Times a révélé l’existence de Clearview AI, une entreprise qui a développé un système de reconnaissance faciale en grattant des millions de sites et en vendant la solution à des centaines d’agences de maintien de l’ordre. Les fausses affirmations de la société concernant l’exactitude du système auraient pu conduire à plusieurs faux positifs.

En mars, l’Inde a admis qu’elle utilisait la technologie de reconnaissance faciale pour identifier les émeutiers qui ont participé à l’agitation dans la capitale de New Delhi pendant la visite du président américain Donald Trump. L’année dernière, l’Indian Express a rapporté que la police de Delhi avait enregistré des images de manifestations contre la loi indienne controversée sur la modification de la citoyenneté (CAA), et les avait passées dans un logiciel de reconnaissance faciale. En outre, la Chine est connue pour espionner ses citoyens par le biais de de nombreuses technologies de surveillance, qui comprennent des outils de reconnaissance faciale.

En 2019, le National Institute of Standards and Technology (NIST) a publié une étude selon laquelle les systèmes de reconnaissance faciale ont un taux de faux positifs plus élevé pour les visages asiatiques et afro-américains que pour les visages caucasiens.

Tous ces exemples montrent qu’il existe un risque de partialité, un danger de surveillance de masse et un profilage ciblé par reconnaissance faciale. L’année dernière, IBM a publié un vaste ensemble de données sur divers visages provenant de Flickr afin de réduire les biais de l’IA. Mais un rapport de NBC a révélé que la société n’avait pas informé les personnes figurant sur ces photos que leurs images étaient utilisées à cette fin.

Si le retrait d’IBM de l’IA générale pour l’égalité raciale est une mesure louable, elle doit faire bien plus que cela. Il existe de nombreuses entreprises qui proposent des alternatives aux solutions d’IBM. Ainsi, le géant de la technologie devra participer activement à la réduction des préjugés et à l’élaboration de politiques qui empêcheront l’utilisation de la technologie de reconnaissance faciale à des fins de surveillance.

Vous pouvez lire la lettre complète du PDG d’IBM ici.

Publié le 9 juin 2020 – 06:18 UTC