Pourquoi l’IA et la perception humaine sont trop complexes pour être comparées

0
136

Performance au niveau humain. Précision au niveau humain. Ce sont des termes que vous entendez beaucoup de la part des entreprises qui développent des systèmes d’intelligence artificielle, qu’il s’agisse de reconnaissance faciale, de détection d’objets ou de réponses aux questions. Et à leur honneur, ces dernières années ont vu de nombreux excellents produits alimentés par des algorithmes d’IA, principalement grâce aux progrès de l’apprentissage automatique et de l’apprentissage en profondeur.

Mais bon nombre de ces comparaisons ne prennent en compte que le résultat final du test des algorithmes d’apprentissage en profondeur sur des ensembles de données limités. Cette approche peut créer de fausses attentes à l’égard des systèmes d’IA et donner des résultats dangereux lorsqu’ils se voient confier des tâches critiques.

Dans une étude récente, un groupe de chercheurs de diverses organisations et universités allemandes a mis en évidence les défis de l’évaluation des performances de l’apprentissage profond dans le traitement des données visuelles. Dans leur article, intitulé «La difficulté notoire de comparer la perception humaine et la perception de la machine», les chercheurs mettent en évidence les problèmes des méthodes actuelles qui comparent les réseaux de neurones profonds et le système de vision humain.

Dans leurs recherches, le scientifique a mené une série d’expériences qui creusent sous la surface des résultats de l’apprentissage profond et les comparent au fonctionnement du système visuel humain. Leurs résultats rappellent que nous devons être prudents lorsque nous comparons l’IA aux humains, même si elle montre des performances égales ou meilleures sur la même tâche.

[Read: An introduction to one-shot learning]

La complexité de la vision humaine et par ordinateur

Dans la quête apparemment sans fin pour reconstruire la perception humaine, le domaine qui est devenu connu sous le nom de vision par ordinateur, l’apprentissage en profondeur a jusqu’à présent donné les résultats les plus favorables. Les réseaux de neurones convolutifs (CNN), une architecture souvent utilisée dans les algorithmes d’apprentissage en profondeur de la vision par ordinateur, accomplissent des tâches extrêmement difficiles avec les logiciels traditionnels.

Cependant, comparer les réseaux de neurones à la perception humaine reste un défi. Et c’est en partie parce que nous avons encore beaucoup à apprendre sur le système de vision humain et le cerveau humain en général. Le fonctionnement complexe des systèmes d’apprentissage profond aggrave également le problème. Les réseaux de neurones profonds fonctionnent de manière très compliquée qui confondent souvent leurs propres créateurs.

Ces dernières années, un corpus de recherche a tenté d’évaluer le fonctionnement interne des réseaux de neurones et leur robustesse à gérer des situations du monde réel. «Malgré une multitude d’études, comparer la perception humaine et machine n’est pas simple», écrivent les chercheurs allemands dans leur article.

Dans leur étude, les scientifiques se sont concentrés sur trois domaines pour évaluer comment les humains et les réseaux de neurones profonds traitent les données visuelles.

Comment les réseaux de neurones perçoivent-ils les contours?

Le premier test concerne la détection des contours. Dans cette expérience, les humains et les participants à l’IA doivent dire si une image contient un contour fermé ou non. L’objectif ici est de comprendre si les algorithmes d’apprentissage en profondeur peuvent apprendre le concept de formes fermées et ouvertes, et s’ils peuvent les détecter dans diverses conditions.

exemple de contour