En juillet, un groupe de chercheurs en intelligence artificielle a présenté une bicyclette autodidacte capable de contourner des obstacles, de suivre une personne et de répondre à des commandes vocales. Si le vélo autotracté en lui-même était peu utile, la technologie d’intelligence artificielle qui le sous-tend était remarquable. La bicyclette était alimentée par une puce neuromorphe, un type spécial d’ordinateur d’intelligence artificielle.
L’informatique neuromorphique n’est pas nouvelle. En fait, il a été proposé pour la première fois dans les années 1980. Mais les récents développements dans l’industrie de l’intelligence artificielle ont ravivé l’intérêt pour les ordinateurs neuromorphes.
La popularité croissante des l’apprentissage profond et les réseaux de neurones a suscité une course au développement de matériel d’IA spécialisé dans les calculs de réseaux neuronaux. Parmi les quelques tendances qui ont émergé ces dernières années, on trouve l’informatique neuromorphique, qui s’est révélée prometteuse en raison de ses similitudes avec les réseaux de neurones biologiques et artificiels.
Lisez : [How machines see: everything you need to know about computer vision]
Comment fonctionnent les réseaux neuronaux profonds
Au cœur des récentes avancées en matière d’intelligence artificielle se trouvent les réseaux neuronaux artificiels (ANN), logiciel d’IA qui suit approximativement la structure du cerveau humain. Les réseaux neuronaux sont composés de neurones artificiels, de minuscules unités de calcul qui effectuent des fonctions mathématiques simples.
Les neurones artificiels ne sont pas d’une grande utilité à eux seuls. Mais lorsque vous les empilez en couches, ils peuvent accomplir des tâches remarquables, comme la détection d’objets dans des images et la transformation de la voix en texte. Les réseaux neuronaux profonds peuvent contenir des centaines de millions de neurones, répartis sur des dizaines de couches.
La structure d’un neurone artificiel, composante fondamentale des réseaux de neurones artificiels (source : Wikipedia)
Lors de la formation d’un algorithme d’apprentissage profond, les développeurs exécutent de nombreux exemples à travers le réseau de neurones en même temps que le résultat attendu. Le modèle d’IA ajuste chacun des neurones artificiels au fur et à mesure qu’il examine de plus en plus de données. Il devient progressivement plus précis dans les tâches spécifiques pour lesquelles il a été conçu, telles que la détection de cancers sur des lames ou le repérage de transactions bancaires frauduleuses.
Les défis de l’exploitation des réseaux neuronaux sur du matériel traditionnel
Les ordinateurs traditionnels reposent sur une ou plusieurs unités centrales de traitement (CPU). Les unités centrales sont très puissantes et peuvent effectuer des opérations complexes à des vitesses élevées. Étant donné la nature distribuée des réseaux de neurones, il est difficile de les faire fonctionner sur des ordinateurs classiques. Leurs unités centrales doivent émuler des millions de neurones artificiels par le biais de registres et d’emplacements de mémoire, et calculer chacun d’entre eux à tour de rôle.
Les unités de traitement graphique (GPU), le matériel utilisé pour les jeux et les logiciels 3D, peuvent effectuer de nombreux traitements en parallèle et sont particulièrement efficaces pour effectuer la multiplication matricielle, le cœur des réseaux de neurones. Les matrices GPU se sont révélées très utiles dans les opérations de réseaux de neurones.
La popularité croissante des réseaux de neurones et de l’apprentissage profond a été une aubaine pour les fabricants de GPU. La société de matériel graphique Nvidia a vu la valeur de son action multipliée par plusieurs au cours des dernières années.
Cependant, les GPU n’ont pas non plus la structure physique des réseaux neuronaux et doivent encore émuler les neurones dans les logiciels, bien qu’à une vitesse fulgurante. Les différences entre les GPU et les réseaux neuronaux sont à l’origine de nombreuses inefficacités, telles qu’une consommation d’énergie excessive.
Puces neuromorphes
Contrairement aux processeurs à usage général, les puces neuromorphes sont physiquement structurées comme des réseaux de neurones artificiels. Chaque puce neuromorphe est constituée de nombreuses petites unités de calcul qui correspondent à un neurone artificiel. Contrairement aux processeurs, les unités de calcul des puces neuromorphes ne peuvent pas effectuer un grand nombre d’opérations différentes. Elles ont juste assez de puissance pour effectuer la fonction mathématique d’un seul neurone.
Une autre caractéristique essentielle des puces neuromorphiques est la connexion physique entre les neurones artificiels. Ces connexions font que les puces neuromorphes ressemblent davantage à des cerveaux organiques, qui sont constitués de neurones biologiques et de leurs connexions, appelées synapses. C’est la création d’un ensemble de neurones artificiels physiquement connectés qui donne aux ordinateurs neuromorphes leur véritable force.
La structure des ordinateurs neuromorphes les rend beaucoup plus efficaces dans la formation et le fonctionnement des réseaux de neurones. Ils peuvent exécuter des modèles d’IA à une vitesse plus rapide que les CPU et GPU équivalents tout en consommant moins d’énergie. Ceci est important car la consommation d’énergie est déjà l’un des défis essentiels de l’IA.
La taille réduite et la faible consommation d’énergie des ordinateurs neuromorphes les rendent adaptés aux cas d’utilisation qui nécessitent exécuter des algorithmes d’IA à la limite par opposition au nuage.
Les puces neuromorphes sont caractérisées par le nombre de neurones qu’elles contiennent. La puce Tianjic, la puce neuromorphique utilisée dans le vélo d’auto-conduite mentionné au début de cet article, contenait environ 40 000 neurones artificiels et 10 millions de synapses sur une surface de 3,8 millimètres carrés. Comparé à un GPU faisant fonctionner un nombre égal de neurones, Tianjic a été 1,6 à 100 fois plus rapide et a consommé 12 à 10 000 fois moins d’énergie.
Mais 40 000 est un nombre limité de neurones, autant que le cerveau d’un poisson. Le cerveau humain contient environ 100 milliards de neurones.
AlexNet, un réseau populaire de classification d’images utilisé dans de nombreuses applications, compte plus de 62 millions de paramètres. Le modèle linguistique GPT-2 d’OpenAI contient plus d’un milliard de paramètres.
Mais la puce Tianjic était plus une preuve de concept qu’un ordinateur neuromorphe destiné à des usages commerciaux. D’autres entreprises ont déjà mis au point des puces neuromorphes prêtes à être utilisées dans différentes applications d’IA.
Les puces Loihi d’Intel et les ordinateurs de Pohoiki Beach en sont un exemple. Chaque puce Loihi contient 131 000 neurones et 130 millions de synapses. L’ordinateur de Pohoiki, introduit en juillet, contient 8,3 millions de neurones. Le Pohoiki est 1000 fois plus performant et 10 000 fois plus économe en énergie que les GPU équivalents.
Calcul neuromorphique et intelligence générale artificielle (AGI)
Dans un papier publié dans NatureLes chercheurs en IA qui ont créé la puce Tianjic ont observé que leurs travaux pourraient nous rapprocher de l’intelligence générale artificielle (AGI). L’AGI est censée reproduire les capacités du cerveau humain. Les technologies d’IA actuelles sont étroites : elles peuvent résoudre des problèmes spécifiques et ne permettent pas de généraliser leurs connaissances.
Par exemple, un Modèle d’IA conçu pour jouer à un jeu comme StarCraft II sera impuissant lorsqu’il sera introduit à un autre jeu, disons Dota 2. Cela nécessitera un un algorithme d’IA totalement différent.
Selon les concepteurs de Tianjic, leur puce d’intelligence artificielle était capable de résoudre de multiples problèmes, notamment la détection d’objets, la reconnaissance vocale, la navigation et l’évitement d’obstacles, le tout dans un seul appareil.
Mais si les puces neuromorphes peuvent nous rapprocher de l’imitation du cerveau humain, il nous reste encore beaucoup de chemin à parcourir. L’intelligence générale artificielle nécessite plus que le regroupement de plusieurs modèles d’IA étroits.
Les réseaux neuronaux artificiels, à leur base, sont des machines statistiques, et les statistiques ne peuvent pas aider à résoudre des problèmes qui nécessitent un raisonnement, une compréhension et une résolution générale des problèmes. En voici quelques exemples la compréhension du langage naturel et la navigation dans des mondes ouverts.
La création d’un matériel ANN plus efficace ne résoudra pas ces problèmes. Mais peut-être que le fait d’avoir des puces d’IA qui ressemblent beaucoup plus à notre cerveau ouvrira de nouvelles voies pour comprendre et créer l’intelligence.
Cet article a été publié à l’origine par Ben Dickson le TechTalksLe rapport de la Commission européenne sur les technologies de l’information et de la communication (TIC), une publication qui examine les tendances en matière de technologie, la manière dont elles affectent notre façon de vivre et de faire des affaires, et les problèmes qu’elles résolvent. Mais nous abordons également le côté maléfique de la technologie, les implications plus sombres des nouvelles technologies et ce à quoi nous devons faire attention. Vous pouvez lire l’article original ici.
Publié le 23 mai 2020 – 14:00 UTC