Les Carebots sont-ils suffisamment empathiques pour remplacer les médecins humains?

0
83

La recherche montre que les médecins qui offrent des messages empathiques et positifs peuvent réduire la douleur d’un patient, améliorer son rétablissement après une intervention chirurgicale et réduire la quantité de morphine dont il a besoin. Mais cela ne signifie pas que dire à un patient quelque chose de simple, comme «ce médicament vous fera vous sentir mieux», aura un effet. C’est plus compliqué que cela, comme le montrent nos dernières recherches.

Les messages positifs sont généralement répétés, définis, spécifiques et personnels. Ils doivent également être communiqués par une figure d’autorité qui fait preuve d’empathie (voir graphique ci-dessous). Bien que notre étude n’identifie pas quelles sont les composantes les plus efficaces d’un message positif (l’échantillon était trop petit), les résultats impliquent que, par exemple, un message positif qui n’est pas spécifique ou personnalisé et est délivré par un médecin perçu comme manquant l’autorité et l’empathie n’auront pas l’effet escompté.

Qu’est-ce que tout cela signifie pour les consultations assistées numériquement allant des rendez-vous téléphoniques aux «carebots» (robots artificiellement intelligents dispensant des soins de santé)? Il s’agit d’une question importante à laquelle il faut répondre, car les Carebots sont proposés comme un moyen rentable de faire face à la nécessité de suivre le rythme des soins pour les populations de personnes âgées croissantes au Royaume-Uni et ailleurs.

[Read: COVID-19 canceled doctors’ office visits — these startups are bringing the doctor to you]

La pandémie a accéléré le recours aux consultations assistées numériquement, le secrétaire britannique à la santé, Matt Hancock, affirmant que les patients ne voudront pas retourner aux consultations en personne après la pandémie. Les consultations en ligne sont différentes des consultations Carebot, mais la tendance à l’abandon de l’interaction interhumaine ne peut être niée. Ils ont également tous deux été mis en œuvre trop rapidement pour que des cadres éthiques puissent être développés.

Problèmes techniques et éthiques

Adopter la preuve que des messages positifs aident les patients à l’ère numérique est à la fois problématique sur le plan technique et éthique. Alors que certains des éléments d’un message positif («ce médicament vous fera vous sentir mieux bientôt») peuvent être transmis directement via un téléphone portable, via un appel vidéo ou même par un Carebot, cela semble être intrinsèquement problématique pour d’autres. Par exemple, le sentiment que quelqu’un a de l’autorité peut provenir de son titre (médecin), qui est vraisemblablement le même que le médecin soit vu en personne ou par téléphone.

Mais les études montrent que l’autorité vient aussi du langage corporel. Il est plus difficile d’afficher le langage corporel au moyen d’un téléphone ou d’une vidéo. Alors que les Carebots peuvent être capables de transmettre leur autorité – et il a été démontré qu’ils affichent un langage corporel suffisamment sophistiqué pour évoquer certaines émotions – les vrais humains bougent différemment. Adapter ce que nous savons des messages faisant autorité à l’ère numérique n’est pas simple. Certaines études révèlent que si les consultations assistées numériquement ne semblent pas nuisibles, elles sont différentes (généralement plus courtes), et nous ne savons pas si elles sont aussi efficaces.

En outre, pour rendre le message positif personnel à un patient (un autre élément des messages positifs), il peut être important de détecter des indices subtils tels qu’un regard vers le bas ou une pause gênante, qui, selon les études, peuvent être importants pour établir des diagnostics précis. Ces indices peuvent être plus difficiles à lire lors d’un appel téléphonique, et encore moins par un Carebot – du moins pour le moment.

Ce ne sont pas seulement des problèmes techniques, ils sont également éthiques. Si les consultations de santé assistées numériquement ne sont pas aussi efficaces pour délivrer des messages positifs, qui, à leur tour, se traduisent par de meilleurs soins, alors elles menacent de violer l’exigence éthique d’aider les patients. Bien sûr, si un Carebot peut faire les choses à moindre coût ou à plus de gens (il peut ne pas avoir besoin de dormir), il peut équilibrer les choses. Mais peser les différentes questions éthiques doit être soigneusement évalué, et cela n’a pas été fait.

Pour les Carebots, cela soulève d’autres problèmes éthiques et même existentiels. Si être empathique et attentionné est un élément clé d’un message positif délivré efficacement, il est important de savoir si les Carebots sont capables de se soucier. Bien que nous sachions que les robots peuvent être perçus comme attentionnés et empathiques, ce n’est pas la même chose que d’être attentionné. Il peut ne pas être important pour certains patients que l’empathie soit feinte ou réelle tant qu’ils en bénéficient, mais encore une fois, cela doit être étoffé plutôt que supposé. Les chercheurs sont conscients de ces problèmes éthiques (et d’autres) et ont appelé à un cadre pour réglementer la conception des Carebots.

L’étude des messages positifs montre que les nouveaux cadres éthiques gagneraient à intégrer les dernières données sur la complexité d’une communication efficace, positive – et d’autres types de communication. À la fin d’une analyse aussi sérieuse, il peut s’avérer que les consultations de soins de santé assistées numériquement et les Carebots sont aussi bons que les consultations en face à face.

Ils pourraient même être meilleurs dans certains cas (certaines personnes peuvent se sentir plus à l’aise de dire des secrets intimes à un robot qu’à un humain). Ce qui est certain, c’est qu’ils sont différents, et nous ne savons actuellement pas quelles sont les implications de ces différences pour optimiser les bénéfices de messages positifs complexes dans le domaine de la santé.La conversation

Cet article est republié de The Conversation par Jeremy Howick, directeur du programme Oxford Empathy, Université d’Oxford sous une licence Creative Commons. Lisez l’article original.

Publié le 15 août 2020 – 16:00 UTC