Pourquoi «human-like» est une barre basse pour la plupart des projets d’IA

0
90


Montrez-moi une machine ressemblant à un humain et je vous montrerai une technologie défectueuse. Le marché de l’IA devrait éclipser 300 milliards de dollars d’ici 2025. Et la grande majorité des entreprises qui tentent de tirer profit de cette aubaine commercialisent une forme d’IA «humaine». Il est peut-être temps de reconsidérer cette approche.

L’idée maîtresse est que l’intelligence artificielle humaine est une mise à niveau. Les ordinateurs calculent, mais l’IA peut apprendre. Malheureusement, les humains ne sont pas très doués pour les types de tâches pour lesquelles un ordinateur a du sens et l’IA n’est pas très douée pour les types de tâches que sont les humains. C’est pourquoi les chercheurs s’éloignent des paradigmes de développement axés sur l’imitation de la cognition humaine.

Une paire de chercheurs de NYU s’est récemment penchée sur la manière dont les humains et l’IA traitent les mots et leur signification. À travers l’étude de la «sémantique psychologique», le duo espérait expliquer les lacunes des systèmes d’apprentissage automatique dans le domaine du traitement du langage naturel (PNL). Selon une étude publiée sur arXiv:

De nombreux chercheurs en IA ne se demandent pas si leurs modèles ressemblent à des humains. Si quelqu’un pouvait développer un système de traduction automatique très précis, peu se plaindraient qu’il ne fait pas les choses comme le font les traducteurs humains.

Dans le domaine de la traduction, les humains ont diverses techniques pour garder plusieurs langues dans leur tête et s’interfacer de manière fluide entre elles. Les machines, en revanche, n’ont pas besoin de comprendre ce que signifie un mot pour lui attribuer la traduction appropriée.

Cela devient délicat lorsque vous vous rapprochez de la précision au niveau humain. Traduire un, deux et trois en espagnol est relativement simple. La machine apprend qu’ils sont exactement équivalents à uno, dos et tres, et les obtiendra probablement 100% du temps. Mais lorsque vous ajoutez des concepts complexes, des mots avec plus d’une signification et de l’argot ou des discours familiers, les choses peuvent devenir complexes.

Nous commençons à entrer dans l’étrange vallée de l’IA lorsque les développeurs essaient de créer des algorithmes de traduction capables de gérer tout et n’importe quoi. Tout comme prendre quelques cours d’espagnol n’apprend pas à un humain tout l’argot qu’il pourrait rencontrer à Mexico, l’IA a du mal à suivre un lexique humain en constante évolution.

La PNL n’est tout simplement pas capable de cognition encore et en lui donnant une apparence humaine comportement serait ridicule – imaginez si Google Translate rechignait à une demande parce qu’il trouvait le mot «humide» désagréable, par exemple.

Cette ligne de pensée n’est pas uniquement réservée à la PNL. Faire en sorte que l’IA ressemble plus à un humain n’est qu’une décision de conception pour plus projets d’apprentissage automatique. Comme le disent les chercheurs de NYU dans leur étude:

Une façon de penser à de tels progrès est simplement en termes d’ingénierie: il y a un travail à faire, et si le système le fait assez bien, il réussit. L’ingénierie est importante, et elle peut entraîner des performances meilleures et plus rapides et soulager les humains du travail ennuyeux, comme la saisie de réponses, la création d’itinéraires aériens ou l’achat de chaussettes.

D’un point de vue purement technique, la plupart des emplois humains peuvent être décomposés en tâches individuelles qui conviendraient mieux à l’automatisation que l’IA, et dans les cas où des réseaux neuronaux seraient nécessaires – diriger le trafic dans un port d’expédition, par exemple – c’est difficile d’imaginer un cas d’utilisation où une IA générale surpasserait plusieurs systèmes étroits et spécifiques à des tâches.

Pensez aux voitures autonomes. Il est plus logique de construire un véhicule composé de plusieurs systèmes qui fonctionnent ensemble au lieu de concevoir un robot humanoïde qui peut marcher jusqu’à, déverrouiller, entrer, démarrer et conduire une automobile traditionnelle.

La plupart du temps, lorsque les développeurs prétendent avoir créé une IA «humaine», ils veulent dire qu’ils ont automatisé une tâche pour laquelle des humains sont souvent employés. Un logiciel de reconnaissance faciale, par exemple, peut remplacer un garde-barrière humain, mais il ne peut pas vous dire à quel point la pizza est bonne au restaurant local en bas de la rue.

Cela signifie que la barre est assez basse pour l’IA quand il s’agit d’être «humaine». Alexa et Siri font une assez bonne imitation humaine. Ils ont des noms et des voix et ont été programmés pour paraître utiles, drôles, amicaux et polis.

Mais il n’y a aucune fonction qu’un haut-parleur intelligent remplit qui ne pourrait pas être mieux gérée par un bouton. Si vous disposiez d’un espace infini et d’une durée d’attention infinie, vous pourriez utiliser des boutons pour tout ce qu’un haut-parleur intelligent peut faire. L’un pourrait dire «Joue Mariah Carey», tandis qu’un autre dit «Dis-moi une blague». Le fait est qu’Alexa est à peu près aussi humaine qu’une télécommande géante.

L’IA n’est pas comme les humains. Nous sommes peut-être à des décennies ou plus d’une IA générale qui peut intuitivement et fonctionner au niveau humain dans n’importe quel domaine. Les majordomes robots sont loin. Pour l’instant, le meilleur que les développeurs d’IA puissent faire est imiter l’effort humain, et c’est rarement aussi utile que de simplifier un processus en quelque chose de facilement automatisé.

Publié le 6 août 2020 – 22:35 UTC