De nos jours, il peut être très difficile de déterminer où tracer les limites autour de l’intelligence artificielle. Ce qu’elle peut et ne peut pas faire n’est souvent pas très clair, pas plus que la direction à prendre.
En fait, il y a aussi beaucoup de confusion autour de ce qu’est réellement l’IA. Les départements marketing ont tendance à intégrer l’IA dans leurs messages et à renommer les anciens produits en «IA et apprentissage automatique». Le box-office regorge de films sur les systèmes d’intelligence artificielle et les robots tueurs qui prévoient de conquérir l’univers. Pendant ce temps, les médias sociaux regorgent d’exemples de systèmes d’IA faisant des erreurs stupides (et parfois offensantes).
«S’il semble que l’intelligence artificielle est partout, c’est en partie parce que« l’intelligence artificielle »signifie beaucoup de choses, selon que vous lisez de la science-fiction, vendez une nouvelle application ou faites des recherches universitaires», écrit Janelle Shane dans Tu ressembles à une chose et je t’aime, un livre sur le fonctionnement de l’IA.
Shane dirige le célèbre blog AI Weirdness, qui, comme son nom l’indique, explore la «bizarrerie» de l’IA à travers des exemples pratiques et humoristiques. Dans son livre, Shane puise dans son expérience de plusieurs années et nous emmène à travers de nombreux exemples qui montrent avec éloquence ce que l’IA, ou plus spécifiquement l’apprentissage en profondeur – est et ce qu’il n’est pas, et comment nous pouvons en tirer le meilleur parti sans tomber dans les pièges.
Bien que le livre soit écrit pour les profanes, c’est certainement une lecture digne des personnes qui ont une formation technique et même des ingénieurs en apprentissage automatique qui ne savent pas comment expliquer les tenants et les aboutissants de leur métier à des personnes moins techniques.
Muet, paresseux, gourmand et inhumain
Dans son livre, Shane explique très bien comment fonctionnent les algorithmes d’apprentissage profond. De l’empilement de couches de neurones artificiels à l’alimentation d’exemples, à des erreurs de rétropropagation, à l’utilisation de la descente de gradient et enfin à l’ajustement des poids du réseau, Shane vous guide tout au long de la formation de réseaux de neurones profonds avec des exemples humoristiques tels que l’évaluation des sandwichs et la création de « knock-knock qui est là? » blagues.

Tout cela aide à comprendre les limites et les dangers des systèmes d’IA actuels, ce qui n’a rien à voir avec les robots de terminaison super intelligents qui veulent tuer tous les humains ou les systèmes logiciels qui planifient des intrigues sinistres. « [Those] les scénarios de catastrophe supposent un niveau de pensée critique et une compréhension humaine du monde dont les IA ne seront pas capables dans un avenir prévisible », écrit Shane. Elle utilise le même contexte pour expliquer certains des problèmes courants qui surviennent lors de la formation de réseaux de neurones , comme un déséquilibre de classe dans les données d’entraînement, biais algorithmique, surajustement, problèmes d’interprétabilité, et plus encore.
Au lieu de cela, la menace des systèmes d’apprentissage automatique actuels, qu’elle décrit à juste titre comme une IA étroite, c’est la considérer comme trop intelligente et s’appuyer sur elle pour résoudre un problème qui dépasse son champ d’intelligence. «La capacité mentale de l’IA est encore minuscule par rapport à celle des humains, et à mesure que les tâches deviennent plus vastes, les IA commencent à lutter», écrit-elle ailleurs dans le livre.
Les algorithmes d’IA sont également très inhumains et, comme vous le verrez Tu ressembles à une chose et je t’aime, ils trouvent souvent des moyens de résoudre des problèmes très différents de la façon dont les humains le feraient. Ils ont tendance à dénicher les sinistres corrélations que les humains ont laissées dans leur sillage lors de la création des données d’entraînement. Et s’il existe un raccourci sournois qui les amènera à leurs objectifs (par exemple, mettre en pause un jeu pour éviter de mourir), ils l’utiliseront, sauf indication contraire explicite.
«La différence entre la résolution de problèmes d’IA réussie et l’échec a généralement beaucoup à voir avec l’adéquation de la tâche à une solution d’IA», écrit Shane dans son livre.
Alors qu’elle plonge dans l’étrangeté de l’IA, Shane met en lumière une autre réalité concernant les systèmes d’apprentissage profond: «Cela peut parfois être un substitut inutilement compliqué à une compréhension du problème de bon sens.» Elle nous emmène ensuite à travers de nombreuses autres disciplines négligées de l’intelligence artificielle qui peuvent s’avérer tout aussi efficaces pour résoudre des problèmes.
Des robots stupides aux robots humains
Dans Tu ressembles à une chose et je t’aime, Shane prend également soin d’expliquer certains des problèmes qui ont été créés à la suite de l’utilisation généralisée de l’apprentissage automatique dans différents domaines. Le plus connu est peut-être biais algorithmique, les déséquilibres complexes dans la prise de décision de l’IA qui conduisent à une discrimination à l’encontre de certains groupes et groupes démographiques.
Il existe de nombreux exemples où les algorithmes d’IA, en utilisant leurs propres méthodes étranges, découvrent et copient les préjugés raciaux et de genre des humains et les copient dans leurs décisions. Et ce qui le rend plus dangereux, c’est qu’ils le font sans le savoir et de manière ininterprétable.
« Nous ne devrions pas considérer les décisions relatives à l’IA comme justes simplement parce qu’une IA ne peut pas nous en vouloir. Traiter une décision comme impartiale simplement parce qu’elle provient d’une IA est parfois connu sous le nom de lavage de mathématiques ou de blanchiment de parti pris », prévient Shane. « Le biais est toujours là, car l’IA l’a copié à partir de ses données d’entraînement, mais il est maintenant enveloppé dans une couche de comportement d’IA difficile à interpréter. »
Cette réplication insensée des préjugés humains devient une boucle de rétroaction auto-renforcée qui peut devenir très dangereux lorsqu’il est déclenché dans des domaines sensibles tels que les décisions d’embauche, la justice pénale et la demande de prêt.
«La clé de tout cela peut être une surveillance humaine», conclut Shane. « Parce que les IA sont si enclines à résoudre sans le savoir le mauvais problème, à casser des choses ou à prendre des raccourcis malheureux, nous avons besoin de personnes pour nous assurer que leur » solution brillante « n’est pas un coup de tête. Et ces personnes devront être familiarisées avec les façons dont les IA ont tendance à réussir ou à se tromper. »
Shane explore également plusieurs exemples dans lesquels le fait de ne pas reconnaître les limites de l’IA a conduit des humains à s’enrôler pour résoudre des problèmes que l’IA ne peut pas. Également connu sous le nom d’effet «Le magicien d’Oz», cette utilisation invisible de bots humains souvent sous-payés devient un problème croissant alors que les entreprises essaient d’appliquer le deep learning à tout et n’importe quoi et cherchent une excuse pour mettre un «AI-powered» étiquette sur leurs produits.
«L’attraction de l’IA pour de nombreuses applications est sa capacité à évoluer vers des volumes énormes, en analysant des centaines d’images ou de transactions par seconde», écrit Shane. « Mais pour de très petits volumes, il est moins cher et plus facile d’utiliser des humains que de construire une IA. »
L’IA n’est pas là pour remplacer les humains… encore
Tous les sandwichs à la coquille d’oeuf et à la boue, les blagues au fromage, les recettes de gâteaux insensés, les girafes mal étiquetées et toutes les autres choses étranges que l’IA nous amène à une conclusion très importante. « L’IA ne peut pas faire grand-chose sans les humains », écrit Shane. «Une vision beaucoup plus probable pour l’avenir, même avec l’utilisation généralisée de la technologie avancée de l’IA, est celle dans laquelle l’IA et les humains collaborent pour résoudre des problèmes et accélérer les tâches répétitives.»
Pendant que nous continuons la quête de l’intelligence au niveau humain, nous devons embrasser l’IA actuelle comme ce qu’elle est, pas ce que nous voulons qu’elle soit. « Dans un avenir prévisible, le danger ne sera pas que l’IA soit trop intelligente, mais qu’elle ne l’est pas assez », écrit Shane. « Il y a tout lieu d’être optimiste à propos de l’IA et toutes les raisons d’être prudent. Tout dépend de la manière dont nous l’utilisons. »
Cet article a été initialement publié par Ben Dickson le TechTalks, une publication qui examine les tendances de la technologie, comment elles affectent notre façon de vivre et de faire des affaires et les problèmes qu’elles résolvent. Mais nous discutons également du mauvais côté de la technologie, des implications plus sombres de la nouvelle technologie et de ce que nous devons rechercher. Vous pouvez lire l’article original ici.
Publié le 18 juillet 2020 – 13:00 UTC