Avec grand étonnement, j’ai de plus en plus de personnes seules dans mon cabinet qui évoquent des échanges fréquents avec leur IA préférée en y voyant un substitut à la consultation auprès d’un psy (qu’il soit psychologue, psychothérapeute ou autre). Même si ça m’a fait un peu sourire au départ, j’avoue que le fait qu’on soit passé d’un cas isolé à plusieurs personnes me fait un peu dresser les poils sur les bras.
Tout d’abord, il y a intrinsèquement le fait d’échanger avec une machine plutôt qu’un être humain. Pas ma tasse de thé, mais admettons, si la machine est capable au final de dire la même chose que l’humain, pourquoi pas. Par contre lorsque j’ai creusé un peu le sujet avec certains patients, je me suis aperçu que pour la très grande majorité, aucun n’avait conscience que « discuter »avec une IA ça n’est pas un échange neutre. Derrière chaque IA il y a une entreprise, qui peaufine ses modèles et dans sa partie interaction avec l’humain (le chat quoi), l’entreprise définit un contexte et des consignes. Chez certains fournisseur ces directives sont librement accessibles. C’est ainsi par exemple que Grok, réputé un peu « punchy » et « dérangeant » a malgré tout dans ses consignes « Ne réprimandez jamais l’utilisateur et ne le rejetez jamais. » (source / prompt actuel s’il a changé). D’autres consignes vont venir prêcher la neutralité, le rejet de l’aspect émotionnel, ou au contraire ajouter leur propre agenda politique pour orienter les réponses… Et donc au final même si les résultats fournis par une IA en réponse à nos questions ont l’air cohérentes, sont écrites dans un langage compréhensible (les consignes sont souvent de répondre avec le même niveau de langage que l’utilisateur), on est très très loin d’avoir en face de nous un système capable de comprendre l’ensemble de nos situations et d’y répondre avec la perspicacité d’un professionnel de la santé mentale.
Lors d’un échange avec un psy humain, celui-ci travaille à partir de multiples informations :
- ce que vous dites bien sûr, mais également
- les mots que vous choisissez (plutôt que d’autres que vous évitez peut-être)
- l’intonation, les pauses entre les mots
- tout l’aspect non verbal, c’est à dire votre posture, vos gestes, vos regards
Le simple fait d’arriver systématiquement à l’heure ou au contraire en retard à vos rendez-vous donne des informations au thérapeute pour travailler sur votre situation.
Peut-être qu’une IA « vocale » et qui vous filmera, arrivera à être plus en phase avec votre situation réelle, mais on n’en est pas tout à fait encore là.
Un psy ça n’est pas juste une personne qui vous écoute et qui vous dit en retour ce que vous avez envie d’entendre, de manière très consensuelle. Hors les IA actuelles sont très terre-à-terre de ce point de vue là, certaines ayant d’ailleurs poussé certaines personnes au suicide puisque ces dernières pensaient que c’était la meilleure solution ! Sans aller jusque là, prenons un exemple concret :
Vous évoquez un problème de travail de harcèlement avec un supérieur et votre envie de quitter votre travail. Selon la formulation exacte l’IA va s’engouffrer dans 2 brèches évidentes : « harcèlement » = loi, reporter les agissement aux autorités blablabla d’un côté et – comme vous l’avez évoqué – de l’autre elle vous expliquera tout sur comment démissionner et trouvera probablement toutes les informations pour vous expliquer par A+B que c’est la meilleure solution pour mettre fin au harcèlement. Vous soufflez un thème, l’IA abonde dans votre sens.
Ça sera très clair, très convainquant, avec tous les jolis mots qui vont bien, probablement des listes à puces d’actions possibles à suivre, mais cela n’aura absolument AUCUN rapport avec un travail psychothérapeutique. Comment en êtes-vous arrivés là ? Pourquoi cela vous affecte autant ? Quels traumas antérieurs pourraient expliquer votre position actuelle ?
Vous pouvez « briefer » votre IA pour la mettre plus dans la peau d’un psy diplômé et essayer de la faire sortir du cadre voulu au départ par ses concepteurs, mais on ne va pas se mentir, les résultats actuel n’auront juste aucun rapport avec le travail avec un humain.
On dit souvent qu’il vaut bien être seul que mal entouré, c’est un peu ce que cet ersatz d’ami me fait ressentir. Un être creux qui va abonder dans votre sens à grand coup de phrases du genre « vous faites bien de me le faire remarquer », « merci cela m’aide beaucoup » ou de certitudes « vous êtes dans la situation typique de… » mais au final tout sera fait pour ne surtout pas vous amener dans des territoires inconfortables. Il faut du consensuel, qui vous fasse rester le plus longtemps possible dans l’échange (les pubs dans les échanges des chatbots c’est pour très bientôt, donc les ficelles seront les mêmes que pour les réseaux sociaux), idéalement pour vous pousser à prendre un abonnement payant pour pouvoir poursuivre un échange avec « le meilleur modèle possible » sinon on vous relègue au « stagiaire ». Là où on croyait que c’était gratuit, on se retrouve vite face à des applications payantes. Et plus le contexte devient long et compliqué (plus vous déroulez une histoire longue, étalée dans le temps), plus les IA ont tendance à halluciner et dire n’importe quoi.
Je ne suis pas totalement anti-IA, il y a des domaines où les percées sont spectaculaires (analyse d’imagerie médicale par exemple), mais le côté « je raconte ma vie à chatGPT » en espérant y voir un vrai travail psychologique, j’avoue que ça me dépasse quelque peu.
Enfin j’aimerai conclure sur un aspect largement ignoré : le respect de la vie privée. Je lisais récemment un article qui évoquait le fait qu’un alsacien venait d’être arrêté à son domicile pour avoir évoqué avec son IA préférée son envie d’acheter une arme pour tuer quelqu’un. Je n’ose pas imaginer la machinerie derrière chaque système de chat par IA qui analyse chacune de vos phrases, pour y trouver le moindre indice d’un comportement qui pourrait être illégal. Aujourd’hui une « envie » de meurtre, demain ça sera l’avortement (ah c’est déjà le cas aux USA), ou ses opinions politiques, sa sexualité atypique…
L’un des piliers du cadre de la psychothérapie c’est le côté sacré de la confidentialité. Chaque patient doit pouvoir être totalement libre de dire absolument tout ce qu’il pense en toute liberté, sans aucun jugement, en sachant que ses propos ne seront rapportés à personne. Un échange avec une IA me semble aux antipodes de ce cadre. Je vois donc difficilement comment un quelconque travail thérapeutique efficace pourrait avoir lieu dans ce genre de situation.
Alors pour répondre à la question initiale : l’IA va-t-elle remplacer les psy ? Pour moi clairement non, parce que le rapport avec l’humain me semble trop fondamental pour tout travail psychothérapeutique. Par contre je me doute que les usages de chatbots génériques en guise de psy vont poursuivre leur explosion, et qu’il sera toujours plus difficile de faire comprendre qu’un beau « blabla bien emballé », surtout « offert » gratuitement n’est pas là pour VOUS aider, mais pour aider l’entreprise qui conçoit l’outil. Un « espoir » viendra peut-être de modèles spécialisés, orientés dès les départ autour des connaissances et pratiques des différents domaines psy, des modèles qui prendraient en compte tous les points que j’ai évoqué plus haut (non verbal) et qui seraient longuement testés d’un point de vue médical avant tout contact avec le grand public. Dans ces conditions, peut-être que ces échanges permettront d’aider des gens qui n’auraient pas fait le premier pas, ou qui n’auraient pas les moyens d’investir dans une vraie thérapie avec un professionnel humain. Le futur nous le dira.
Article écrit 100% sans IA 😊
