Facebook apprend à l’IA à mentir comme un humain

0
788


Les chercheurs en IA sur Facebook ont annoncé aujourd’hui la création de Blender, un ensemble de modèles de chatbot open-source à la pointe de la technologie. Ces nouveaux modèles sont censés être « plus humains » que les précédentes itérations et permettre des conversations plus solides.

Selon les premières indications, il semble être aussi bon, voire meilleur, que les robots concurrents de Google et de Microsoft. Mais il ne s’agit pas d’une mesure à sens unique. Parce que, essentiellement, ce que Facebook a fait, c’est apprendre aux chatbots de Blender à mentir modérément mieux que les autres.

La grande idée ici est que Facebook a pris un énorme ensemble d’informations et s’est formé à l’IA sur ce sujet. Les chatbots de Blender sont open-domainIls ne peuvent donc pas être formés uniquement pour répondre à une série de questions spécifiques comme celles que vous voyez sur les sites web. Au contraire, ces robots sont théoriquement capables d’engager une conversation sur n’importe quel sujet.

Par un billet de blog d’entreprise :

C’est la première fois qu’un chatbot a appris à combiner plusieurs compétences de conversation – y compris la capacité d’assumer une personnalité, de discuter de presque tous les sujets et de faire preuve d’empathie – dans des flux de conversation naturels à 14 tours.

Notre nouvelle recette intègre non seulement des modèles neuronaux à grande échelle, avec jusqu’à 9,4 milliards de paramètres – soit 3,6 fois plus que le plus grand système existant – mais aussi des techniques tout aussi importantes pour combiner les compétences et la génération de détails.

Tout comme le GPT-2, le générateur de texte de l’OpenAI, le nombre de paramètres utilisés par Blender joue un rôle important dans la force de conviction des résultats de l’IA. À des nombres plus élevés, l’IA requiert une plus grande puissance de calcul, mais elle produit des résultats manifestement meilleurs.

Cependant, il faut plus qu’un simple volume pour être le meilleur, et le travail de Facebook au-delà de la simple modification des paramètres est impressionnant.

Selon la page du projet Blender :

Une bonne conversation exige un certain nombre de compétences qu’un expert en conversation combine de manière harmonieuse : fournir des points de discussion intéressants et écouter son partenaire, à la fois poser des questions et y répondre, et faire preuve de connaissances, d’empathie et de personnalité de manière appropriée, selon la situation. Nous montrons que les modèles à grande échelle peuvent acquérir ces compétences lorsqu’ils disposent de données de formation appropriées et qu’ils choisissent une stratégie de génération.

Le résultat est un chatbot qui, le plus souvent, semble mener une conversation de type humain de manière convaincante. D’une certaine manière, il est capable de passer le test de Turing. Cela pourrait très bien représenter l’IA conversationnelle la plus avancée de la planète. Et ce n’est guère plus qu’un tour de passe-passe.

L’IA de Facebook ne comprend pas un mot de ce qu’elle dit. Elle n’écoute personne, elle ne peut pas comprendre le langage ou le sens des mots. Elle fait seulement des associations entre les déclarations que ses développeurs jugeront appropriées et celles qui ne le seront pas.

Elle ne peut pas « afficher des connaissances » parce qu’elle ne dispose pas réellement d’une base de connaissances. Elle fait des associations qui semblent avoir un sens. Si vous lui racontez, par exemple, votre chanson préférée des Smashing Pumpkins, il peut prétendre préférer une autre chanson, mais il n’a jamais été exposé à l’expérience réelle de la musique. Elle ne traite que le langage naturel. Il ne comprend pas ce qu’est l’audio, l’image ou la vidéo.

Elle n’a pas non plus d’empathie, elle ne peut pas analyser vos sentiments ou répondre par les siens. Elle se contente de répondre par des déclarations qu’elle a été formée à comprendre et qui représentent des réponses appropriées. Si, par exemple, vous dites que vous êtes triste, il ne vous adressera pas de félicitations, du moins pas dans des circonstances optimales.

En gros, l’IA de Facebook devient vraiment bonne pour l’éclairage au gaz et la pêche au chat. Elle devient un parfait menteur car il n’y a pas d’autre option. L’IA ne ressent ni ne pense, donc elle ne peut pas expérimenter. Et sans expérience, il n’y a pas d’humanité. Un robot doit donc mentir pour arriver à un paradigme où le succès est basé sur la façon de type humain ses capacités de conversation sont.

Il se peut qu’un jour, l’humanité apprenne à regretter sa décision de recourir à des subterfuges crédibles pour remplacer l’intelligence conversationnelle humaine. Mais, comme c’est presque toujours le cas lorsqu’il s’agit de la menace existentielle de l’IA, le plus grand danger n’est pas que les robots utilisent leurs pouvoirs croissants pour nous nuire, mais que d’autres humains le fassent.

Si vous voulez plus d’informations sur Blender, consultez le document de recherche ici.

Publié le 29 avril 2020 – 20:03 UTC


Article précédentShopify lance une nouvelle application de shopping mobile
Article suivantLe Congrès mexicain se concentre sur la légalisation du cannabis comme option de relance économique
Rédacteur spécialisé et passionné par l'économie et les nouvelles technologies. Il publie des actualités liées à l'économie, la finance et les technologies.