Que se passera-t-il lorsque nous atteindrons la singularité de l’IA?

0
81

Devriez-vous vous sentir mal à l’idée de débrancher la prise d’un robot ou de désactiver un algorithme d’intelligence artificielle? Pas pour l’instant. Mais qu’en est-il lorsque nos ordinateurs deviennent aussi intelligents – ou plus intelligents – que nous?

Les débats sur les conséquences de l’intelligence générale artificielle (AGI) sont presque aussi anciens que l’histoire de l’IA elle-même. La plupart des discussions décrivent l’avenir de l’intelligence artificielle comme Terminatorcomme l’apocalypse ou Wall-Ecomme une utopie. Mais ce qui est moins discuté, c’est la façon dont nous percevrons, interagirons et accepterons les agents d’intelligence artificielle lorsqu’ils développent des traits de vie, d’intelligence et de conscience.

Dans un essai récemment publié, Borna Jalsenjak, scientifique à la Zagreb School of Economics and Management, discute de l’IA super intelligente et des analogies entre la vie biologique et la vie artificielle. Intitulée «La singularité de l’intelligence artificielle: ce qu’elle est et ce qu’elle n’est pas», son travail apparaît dans Guide des bases de l’apprentissage en profondeur, une collection d’articles et de traités qui explorent divers aspects historiques, scientifiques et philosophiques de l’intelligence artificielle.

Jalsenjak nous emmène à travers la vision anthropologique philosophique de la vie et comment elle s’applique aux systèmes d’IA qui peuvent évoluer à travers leurs propres manipulations. Il soutient que des «machines à penser» émergeront lorsque l’IA développera sa propre version de la «vie» et nous laissera quelques pistes de réflexion sur les aspects les plus obscurs et les plus vagues de l’avenir de l’intelligence artificielle.

[Read: Study: Only 18% of data science students are learning about AI ethics]

Singularité de l’IA

La singularité est un terme qui revient souvent dans les discussions sur l’IA générale. Et comme pour tout ce qui a trait à AGI, il y a beaucoup de confusion et de désaccord sur ce qu’est la singularité. Mais une chose clé que la plupart des scientifiques et des philosophes conviennent que c’est un tournant où nos systèmes d’IA deviennent plus intelligents que nous. Un autre aspect important de la singularité est le temps et la vitesse: les systèmes d’IA atteindront un point où ils pourront s’améliorer de façon récurrente et accélérée.

« Dit d’une manière plus succincte, une fois qu’il y a une IA qui est au niveau des êtres humains et que l’IA peut créer une IA légèrement plus intelligente, puis que l’on peut créer une IA encore plus intelligente, puis la suivante crée encore plus intelligent et il continue comme ça jusqu’à ce qu’il y ait une IA qui est remarquablement plus avancée que ce que les humains peuvent réaliser », écrit Jalsenjak.

Pour être clair, la technologie d’intelligence artificielle que nous avons aujourd’hui, connue sous le nom d’IA étroite, est loin de réaliser un tel exploit. Jalšenjak décrit les systèmes d’IA actuels comme «spécifiques à un domaine» tels que «l’IA qui est excellente pour faire des hamburgers mais n’est pas bonne à autre chose». D’un autre côté, le type d’algorithmes qui est la discussion de la singularité de l’IA est « l’IA qui n’est pas spécifique à un sujet, ou à défaut d’un meilleur mot, elle est indémodable et en tant que telle, elle est capable d’agir dans n’importe quel domaine, »Écrit Jalsenjak.

Ce n’est pas une discussion sur comment et quand nous atteindrons AGI. C’est un sujet différent, et qui fait également l’objet de nombreux débats, la plupart des scientifiques étant convaincus que l’intelligence artificielle au niveau humain est au moins dans des décennies. Jalsenjack spécule plutôt sur la façon dont l’identité de l’IA (et des humains) sera définie quand nous y arrivons, que ce soit demain ou dans un siècle.

L’intelligence artificielle est-elle vivante?

pensée du robot

Il y a une grande tendance dans la communauté de l’IA à considérer les machines comme des humains, surtout lorsqu’elles développent des capacités qui montrent des signes d’intelligence. Bien qu’il s’agisse clairement d’une surestimation de la technologie d’aujourd’hui, Jasenjak nous rappelle également que l’intelligence générale artificielle ne doit pas nécessairement être une réplique de l’esprit humain.

«Qu’il n’y a aucune raison de penser que l’IA avancée aura la même structure que l’intelligence humaine si cela se produit, mais comme c’est dans la nature humaine de présenter les états du monde d’une manière qui est la plus proche de nous, dans une certaine mesure de l’anthropomorphisation est difficile à éviter », écrit-il dans la note de bas de page de son essai.

L’une des plus grandes différences entre les humains et la technologie actuelle de l’intelligence artificielle est que si les humains sont «vivants» (et nous verrons ce que cela signifie dans un instant), les algorithmes d’IA ne le sont pas.

«L’état de la technologie aujourd’hui ne laisse aucun doute sur le fait que la technologie n’est pas vivante», écrit Jalsenjak, auquel il ajoute: «Ce dont nous pouvons être curieux, c’est s’il apparaît une superintelligence telle qu’elle est prédite dans les discussions sur la singularité qu’elle pourrait cela vaut la peine d’essayer de voir si nous pouvons aussi le considérer comme vivant. »

Bien que non organique, une telle vie artificielle aurait d’énormes répercussions sur la façon dont nous percevons l’IA et agissons à son égard.

Que faudrait-il pour que l’IA prenne vie?

S’inspirant des concepts de l’anthropologie philosophique, Jalsenjak note que les êtres vivants peuvent agir de manière autonome et prendre soin d’eux-mêmes et de leur espèce, ce que l’on appelle «l’activité immanente».

« Maintenant, au moins, quelles que soient les machines avancées, elles ne servent à cet égard que dans le but d’extensions humaines », observe Jalsenjak.

Il existe différents niveaux de vie, et comme le montre la tendance, l’IA fait lentement son chemin vers la vie. Selon l’anthropologie philosophique, les premiers signes de vie prennent forme lorsque les organismes se développent vers un but, qui est présent dans l’IA orientée vers les objectifs d’aujourd’hui. Le fait que l’IA ne soit pas «consciente» de son objectif et croque inconsciemment les chiffres pour l’atteindre semble être sans importance, dit Jalsenjak, parce que nous considérons les plantes et les arbres comme vivants même s’ils n’ont pas non plus ce sens de la conscience.

Un autre facteur clé pour être considéré comme vivant est la capacité d’un être à se réparer et à s’améliorer, dans la mesure où son organisme le permet. Il doit également produire et prendre soin de sa progéniture. C’est quelque chose que nous voyons dans les arbres, les insectes, les oiseaux, les mammifères, les poissons et pratiquement tout ce que nous considérons comme vivant. Les lois de la sélection naturelle et de l’évolution ont obligé chaque organisme à développer des mécanismes lui permettant d’apprendre et de développer des compétences pour s’adapter à son environnement, survivre et assurer la survie de son espèce.

En ce qui concerne l’éducation des enfants, Jalsenjak postule que la reproduction de l’IA ne fonctionne pas nécessairement parallèlement à celle des autres êtres vivants. «Les machines n’ont pas besoin de progéniture pour assurer la survie de l’espèce. L’IA pourrait résoudre les problèmes de détérioration des matériaux en disposant simplement de suffisamment de pièces de rechange pour échanger les pièces défectueuses (mortes) avec les nouvelles », écrit-il. « Les êtres vivants se reproduisent de nombreuses façons, donc la méthode actuelle n’est pas essentielle. »

En ce qui concerne l’auto-amélioration, les choses deviennent un peu plus subtiles. Jalsenjak souligne qu’il existe déjà un logiciel capable de s’auto-modifier, même si le degré d’auto-modification varie d’un logiciel à l’autre.

Robot penseur

Les algorithmes d’apprentissage automatique d’aujourd’hui sont, dans une certaine mesure, capables d’adapter leur comportement à leur environnement. Ils ajustent leurs nombreux paramètres aux données collectées dans le monde réel et, à mesure que le monde change, ils peuvent être recyclés sur de nouvelles informations. Par exemple, la pandémie de coronavirus a perturbé de nombreux systèmes d’IA formés à notre comportement normal. Parmi eux se trouvent des algorithmes de reconnaissance faciale qui ne peuvent plus détecter les visages car les gens portent des masques. Ces algorithmes peuvent désormais ajuster leurs paramètres en s’entraînant sur des images de visages portant un masque. De toute évidence, ce niveau d’adaptation est très faible par rapport aux vastes capacités des humains et des animaux de niveau supérieur, mais il serait comparable, disons, aux arbres qui s’adaptent en poussant des racines plus profondes lorsqu’ils ne trouvent pas d’eau à la surface de le sol.

Cependant, une IA idéale qui s’améliore d’elle-même serait celle qui pourrait créer des algorithmes totalement nouveaux qui apporteraient des améliorations fondamentales. Ceci est appelé «auto-amélioration récursive» et conduirait à un cycle sans fin et accéléré d’IA toujours plus intelligente. Cela pourrait être l’équivalent numérique des mutations génétiques que les organismes traversent au cours de nombreuses générations, bien que l’IA soit capable de l’exécuter à un rythme beaucoup plus rapide.

Aujourd’hui, nous avons certains mécanismes tels que les algorithmes génétiques et la recherche sur grille qui peuvent améliorer les composants non entraînables des algorithmes d’apprentissage automatique (également appelés hyperparamètres). Mais l’étendue des changements qu’ils peuvent apporter est très limitée et nécessite toujours un certain travail manuel de la part d’un développeur humain. Par exemple, vous ne pouvez pas vous attendre à ce qu’un réseau neuronal récursif se transforme en transformateur à travers de nombreuses mutations.

L’auto-amélioration récursive, cependant, donnera à l’IA «la possibilité de remplacer l’algorithme qui est complètement utilisé», note Jalsenjak. « Ce dernier point est ce qui est nécessaire pour que la singularité se produise. »

Par analogie, en regardant des caractéristiques déterminées, les IA superintelligentes peuvent être considérées comme vivantes, conclut Jalsenjak, infirmant l’affirmation selon laquelle l’IA est une extension des êtres humains. « Ils auront leurs propres objectifs, et probablement aussi leurs droits », dit-il, « les humains partageront pour la première fois la Terre avec une entité qui est au moins aussi intelligente qu’eux et probablement beaucoup plus intelligente. »

Seriez-vous toujours en mesure de débrancher le robot sans ressentir de culpabilité?

Être en vie ne suffit pas

À la fin de son essai, Jalsenjak reconnaît que la réflexion sur la vie artificielle laisse beaucoup plus de questions. « Les caractéristiques décrites ici concernant les êtres vivants sont-elles suffisantes pour que quelque chose soit considéré comme vivant ou sont-elles simplement nécessaires mais pas suffisantes? » Il demande.

Venant de lire Je suis une boucle étrange par le philosophe et scientifique Douglas Hofstadter, je peux certainement dire non. L’identité, la conscience de soi et la conscience sont d’autres concepts qui distinguent les êtres vivants les uns des autres. Par exemple, est-ce qu’un robot constructeur de trombones aveugle améliore constamment ses algorithmes pour transformer l’univers entier en trombones vivants et méritant ses propres droits?

Le libre arbitre est également une question ouverte. «Les humains sont des co-créateurs d’eux-mêmes dans un sens où ils ne se donnent pas entièrement leur existence, mais rendent leur existence utile et remplissent cet objectif», écrit Jalsenjak. «Il n’est pas clair que les futures IA auront la possibilité d’un libre arbitre.»

Et enfin, il y a le problème de l’éthique de l’IA superintelligente. Il s’agit d’un vaste sujet qui comprend les types de principes moraux que l’IA devrait avoir, les principes moraux que les humains devraient avoir envers l’IA et la façon dont les IA devraient voir leurs relations avec les humains.

La communauté de l’IA rejette souvent ces sujets, soulignant les limites claires des systèmes actuels d’apprentissage en profondeur et la notion farfelue de parvenir à l’IA générale.

muet ai

Mais comme beaucoup d’autres scientifiques, Jalsenjak nous rappelle que le moment de discuter de ces sujets est aujourd’hui, pas quand il est trop tard. «Ces sujets ne peuvent être ignorés car tout ce que nous savons à l’heure actuelle sur l’avenir semble indiquer que la société humaine est confrontée à un changement sans précédent», écrit-il.

Dans l’essai complet, disponible chez Springer, Jalsenjak fournit des détails approfondis sur la singularité de l’intelligence artificielle et les lois de la vie. Le livre complet, Guide des bases de l’apprentissage en profondeur, fournit des informations plus approfondies sur la philosophie de l’intelligence artificielle.

Cet article a été initialement publié par Ben Dickson sur TechTalks, une publication qui examine les tendances technologiques, comment elles affectent notre façon de vivre et de faire des affaires, et les problèmes qu’elles résolvent. Mais nous discutons également du mauvais côté de la technologie, des implications plus sombres de la nouvelle technologie et de ce que nous devons rechercher. Vous pouvez lire l’article original ici.

Publié le 7 juillet 2020-08: 41 UTC