Mots clés : Intelligence Artificielle ; Analyse Psycho-Organique ; psychothérapie ; thérapie ; apprentissage ; mémoire ; innovation ; logiciel
En ce début d’année, l’une de mes analysantes m’annonce : « J’ai discuté pendant deux heures avec une Intelligence Artificielle sur mon processus thérapeutique ! ». (1)
Surpris, quelque peu décontenancé, je souris. Elle ajoute : « C’était super intéressant, elle m’a appris plein de trucs…». Cette fois, ça y est, j’éprouve un malaise, peut-être même de l’inquiétude. Ça y est, cette analysante va me remplacer par un ordinateur, peu cher, tout le temps disponible (le faut-il vraiment ?). L’Intelligence Artificielle (IA) va avoir raison de nos cabinets.
Mon analysante s’en rend compte, sûrement en ressentant une certaine crispation corporelle généralisée chez moi : « Ça ne vous gêne pas qu’on en parle ? ».
La séance s’est poursuivie, sans que cette « expérience » ne prenne toute la place. Mais elle sema en moi l’idée que « nous », thérapeutes, n’en n’avions pas fini avec ce sujet…
Il se trouve qu’il y a quelques années, je travaillais pour un acteur majeur des nouvelles technologies. L’IA, je connais bien. J’ai même participé à sa réintroduction dans les années 2010. C’est un sujet auquel je prête beaucoup d’attention tant il a éveillé en moi des sentiments ambivalents. Je dis sa « réintroduction » car l’IA c’est une vieille histoire…
L'IA, exploit technologique ou fantasme prométhéen ?
D’un point de vue culturel, l’humanité n’a eu de cesse de mettre au monde des Golems, des Frankenstein et autres Terminator dans notre imaginaire. En Occident, la première application concrète du fantasme d’extra-humanisation de l’intelligence fut le « turc mécanique” (2), au XVIIIème siècle. Il s’agissait d’un prétendu automate joueur d’échecs, qui remportait la plupart des parties d’échecs auxquelles il participait, notamment contre certains hommes et femmes d’État tels que Napoléon Bonaparte, Catherine II de Russie et Benjamin Franklin. Le canular, car il s’agissait bien de cela, résidait dans le fait qu’un joueur d’échecs était caché dans la table portant l’automate et déplaçait les pièces à l’aide d’aimants. Cet exemple illustre une fascination de toujours pour toute création mécanique ou électronique qui reproduirait notre « intelligence » humaine, voire la surpasserait.
D’un point scientifique, l’Intelligence Artificielle fit son apparition dans les années 50, notamment avec les travaux d’Alan Turing et son « jeu de l’imitation ». Très vite, ces travaux mathématiques ont appelé d’autres champs scientifiques, principalement philosophiques et économiques (3). Dès les origines de l’Intelligence Artificielle, dont le nom était déjà porteur pour l’époque d’un idéal, voire d’une idéologie, deux grandes visions s’affrontèrent. D’une part celle d’une « prothèse de l’humain », une informatique qui nous augmente ; de l’autre la volonté de créer une « machine qui devient intelligente ». Pendant des décennies, les chercheurs (surtout américains, financés par l’état et l’armée, puis les grands groupes technologiques) n’auront de cesse d’essayer de créer des systèmes « experts », basés sur un grand nombre de règles ou connaissances, répondant à une logique prédéfinie, pour prendre des décisions compliquées (comme le fameux « Deep Blue » qui a battu Garry Kasparov aux échecs), comme le ferait un humain face à un problème ardu. On appelle cela l’IA « symbolique ». Cette stratégie de recherche montra ses limites, notamment par son incapacité à réagir face aux ambiguïtés et à l’incertitude et plongea à plusieurs reprises le développement de l’Intelligence Artificielle dans l’oubli.
Depuis le milieu des années 2010, l’IA fait sa réapparition, avec son lot de promesses et de questionnements. Les raisons de ce regain sont multifactorielles. Tout d’abord des raisons techniques. L’IA ce sont des modèles ou algorithmes, mais c’est aussi la capacité de gérer une grande masse de données. Les acteurs et promoteurs de l’IA disposent aujourd’hui d’une puissance de calculs inégalée jusqu’alors (des processeurs aux datacenter) et d’une quantité phénoménale de données (grâce à l’avènement d’Internet et des réseaux sociaux).
Un autre facteur technique qui a contribué au renouveau de ce sujet, c’est la généralisation de l’IA « générative » (4) (comme celle avec laquelle mon analysante a conversé). Il s’agit de « robots numériques » que l’on a « entraîné », à partir de beaucoup de données, à donner des réponses ou et à créer l’illusion d’une conversation humaine (un peu comme le « turc mécanique »). L’IA générative n’appartient pas aux modèles experts de l’IA symbolique, mais à un autre grand courant de développement, l’IA « connexionniste ». Pour faire simple, là où l’IA « symbolique » tente de reproduire une expertise donnée par des règles logiques, des connaissances stockées et des calculs, l’IA connexionniste va « apprendre » à faire la connexion entre des données et des décisions prédéfinies. A ce titre, l’IA « générative », celle utilisée par mon analysante, est un exemple d’IA connexionniste. Elle crée des objets (des phrases, des images…) en utilisant un très grand nombre de données « d’apprentissage » et en respectant des processus de décision préalablement définis (5).
Sur le plan économique, les années 2010 c’est aussi l’avènement de grands groupes informatiques (dont les fers de lance sont les « GAFAM » : Google Apple Facebook Amazon Microsoft) capables d’investissements inédits destinés à créer de nouveaux usages et de nouveaux marchés à l’échelle planétaire. En effet, ces groupes appartiennent à ce que l’on appelle « l’économie des plateformes » (6). Leur stratégie, par le biais de financements importants (sans rendements immédiats), est de cibler des marchés pouvant être « désintermédiés » et « numérisés », et de rapidement prendre des positions dominantes voire monopolistiques (comme par exemple Uber qui a considérablement transformé la profession des chauffeurs de taxi). Les GAFAM, les plus importants acteurs de l’économie de plateformes, usent de ces stratégies pour construire les centres de calcul ou de données les plus importants du monde. Si l’on prend la métaphore de la ruée vers l’or, ils sont les vendeurs de pelles qui indiquent où se trouvent l’or (l’IA) aux chercheurs d’or (des entrepreneurs, des développeurs…), sans manquer de lui vendre l’équipement nécessaire, précieux sésame, pour atteindre une (hypothétique) fortune. Les GAFAM sont devenus aussi puissants que certains États (7) et leur stratégie est parfois étroitement liée aux orientations politiques des grandes puissances mondiales (8).
L’IA et l’humain, quelles différences ?
Comme nous l’avons vu, que ce soit à l’époque où l’IA n’était encore qu’un fantasme ou plus récemment avec l’avènement de l’IA générative, notre société n’a eu de cesse de comparer « Intelligence Artificielle » et « Intelligence Humaine ». Mais est-ce possible de comparer ces deux « intelligences » ?
Cela nous renvoie tout d’abord à la définition floue que nous pouvons donner à l’intelligence. Le Petit Robert en donne une définition générale : l’intelligence y est définie comme une « faculté de connaître et de comprendre », « la capacité d’un esprit qui s’adapte et comprend facilement », et enfin comme « l’ensemble des fonctions mentales ayant pour objet la connaissance conceptuelle et rationnelle ». Nous pouvons tout d’abord remarquer qu’il n’y est pas fait état de considérations sociales et culturelles de l’intelligence (ce qui va sembler être de l’intelligence à une époque donnée, ou dans un groupe social donné peut varier). D’autre part, cette définition désigne ce que l’on qualifierait en Analyse Psycho-Organique (APO) de « concept ». Elle ne tient pas compte des origines et de l’universalité de l’intelligence humaine. Paul Boyesen, créateur de l’Analyse Psycho-Organique, dit « qu’un enfant qui vient au monde a déjà en lui une intelligence inconsciente. Ce n’est pas le cerveau en soi (le concept) qui va le gérer au départ, c’est la nature. C’est quelque chose d’organique qui émerge et le cerveau l’intègre ensuite » (9).
Car si l’IA est comparée à l’intelligence humaine, c’est d’une certaine forme d’intelligence dont il est question. Les développements de l’IA peuvent avoir pour objectif de répondre à des problèmes compliqués, par « raisonnement », en s’appuyant sur des règles et de nombreux calculs (IA symbolique). Ils peuvent également fonctionner par apprentissage ou comparaison de données stockées, issues d’une base de données importante (IA Connexionniste). Les derniers développements tendent vers une fusion de ces deux types de développement. Sur le plan fonctionnel, il existe des différences fondamentales entre une IA et un être humain. Ces différences laissent penser que qualifier « d’intelligentes » les IA serait a minima une hyperbole sinon une forme de discours de promotion.
Prenons les différences concernant « la mémoire » par exemple. Les IA ne s’appuient que sur un seul type de mémoire, « le stockage », qui nécessite d’importants dispositifs de « disques durs », dans des « data centers » pour stocker toujours plus de données. Or, pour l’être humain, il n’existe pas une mais « des mémoires » (10). Ces différentes mémoires ne font pas appel à un fonctionnement réductionniste à savoir avec un « siège de l’intelligence » en lien avec un « siège du stockage de mémoire ». Chez l’humain le système mnésique s’appuie sur des systèmes synaptiques qui sont capables de faire apparaître des éléments mnésiques sans qu’ils n’aient au préalable d’emplacements définis. Ce processus dynamique passe par une phase d’encodage (information et représentation), puis par une étape de consolidation (notamment la nuit, à travers les rêves, avec le temps…), puis ce sont des mécanismes d’accès qui peuvent se faire avec l’ensemble de notre corps et de nos sens (11).
Cette différence notable au niveau de la mémoire entre humain et IA en induit une seconde. Celle de l’apprentissage. Chez l’humain, l’apprentissage est intégré au processus de mémoire. Il suffit par exemple de montrer quelques photos de chien à un enfant de deux ans pour qu’il apprenne ce qu’est un chien. En revanche, une IA a besoin d’être entraînée avec des milliers de photos pour arriver au même résultat (12).
« L’entraînement » des IA soulève de nombreuses questions éthiques et pose certains problèmes techniques. Tout d’abord cet « apprentissage » des IA ne se fait pas miraculeusement. Derrière cette action se cache, comme pour le « turc mécanique », une intervention humaine. Ils se nomment les « travailleurs du clic » et se répartissent un peu partout sur la planète. Payés à la micro-tâche, ils entraînent les IA à donner de « bonnes » réponses (13). Ce fonctionnement soulève notamment la question de la « fabrication » des IA et de qui injecte quoi dans leurs bases de connaissances (reproduction de biais, contre vérités, orientation volontaire des associations de réponses…).
Une fois « l’entraînement » terminé, le fonctionnement de l’IA en tant que tel n’est plus entre les mains des humains. Les développeurs eux-mêmes avouent que les IA qui sont le fruit d’un apprentissage peuvent devenir des « boîtes noires » (14), en raison de la complexité et de l’opacité de leurs processus décisionnels. En psychologie, il serait tentant de faire le lien avec une forme « d’inconscient » qui guiderait des prises de décision. Même si l’IA peut retenir des éléments (un historique de choix de l’utilisateur par exemple), elle n’aura pas la capacité de réguler « consciemment » ce que lui dicte son « inconscient ».
Cette absence de conscience de l’IA, conscience d’elle-même et de son environnement, fixe les limites de son raisonnement. Par exemple, une IA se retrouve en grande difficulté en cas de nouveaux éléments ou nouvelles données qui n’ont pas été au préalable « apprises ». Cela est dû à son fonctionnement basé sur « la méthode de propagation vers l’arrière ». L’IA analyse la différence entre le résultat attendu et le résultat qu’il a fourni, elle calcule une sorte de taux d’erreur, puis « remonte » dans son raisonnement pour ajuster des paramètres jusqu’à faire baisser le taux d’erreur. Ce fonctionnement diffère des dynamiques humaines qui, en cas de nouvelles informations, opèrent par « configuration prospective ». L’apprentissage beaucoup plus aisé et immédiat de l’être humain, comme nous l’avons vu, lui permet de « re-symboliser » presque immédiatement face à une nouvelle situation, là où l’IA persévéra dans ce qu’elle connaît (15).
Ce détour par les origines historiques, économiques et techniques de l’IA me semble être un passage nécessaire pour la compréhension de ce que signifie l’émergence de ces technologies dans le monde des thérapies. Nous avons pu montrer que les IA sont avant tout des logiciels, avec des perspectives commerciales, parfois morales. Qu’ils ne sont pas une réplique fonctionnelle de l’intelligence humaine mais des outils puissants, rivalisant avec l’humain sur des aspects purement cognitifs, mais qu’ils donnent l’illusion d’une humanité grâce à de nouvelles interfaces, notamment basées sur le langage. Ces logiciels nécessitent des investissements colossaux, qui n’ont de contrepartie que les gains (financiers, scientifiques ou stratégiques) qui pourraient en découler.
L’IA et le thérapeute, fantasme ou réalité ?
L’IA s’est considérablement développée dans l’environnement des thérapeutes sans que cela ne soit particulièrement visible. Par exemple, pour les jeunes et moins jeunes thérapeutes, les « plateformes » de référencement, sortes d’annuaires en ligne, s’appuient sur des algorithmes de type « symbolique », qui « prennent la décision » d’orienter vers tel ou tel thérapeute un patient. C’est le même fonctionnement que pour un chauffeur ou livreur Uber, qui ne sait pas comment et pourquoi un client lui est (ou ne lui est pas) proposé.
L’IA s’est aussi immiscée dans la vie des personnes. Peut-être en premier lieu dans leur vie professionnelle, où les efforts de rationalisation passent souvent par des changements organisationnels et bureaucratiques et par le développement d’outils numériques.
Dans leur suivi médical, les personnes interagissent avec le numérique, comme avec des sites comme Doctissimo aux débuts d’Internet, il n’est pas rare d’entendre des « auto-diagnostics » via des moteurs de recherche, là aussi soumis à des algorithmes plus ou moins transparents, et qui viennent vérifier en consultant un docteur en séance leur découverte. Cela est aussi le cas pour les thérapies.
L’exemple de l’analysante qui démarre sa séance en partageant ses échanges avec une IA générative illustre donc un mouvement plus global, où l’accès à ces nouvelles technologies se généralise. Pour certains (16), l’inadéquation entre les besoins croissants en termes de santé mentale (17) et le nombre de professionnels en activité (18) serait un facteur explicatif ou une raison suffisante pour investir dans ces nouvelles technologies.
Comme pour d’autres professions avant les thérapeutes (notaires, avocats, chauffeurs de taxi…), une réflexion de fond devra être menée par les fédérations professionnelles pour s’adapter aux évolutions sociales tout en bâtissant avec les pouvoirs publics une stratégie d’accompagnement des personnes qui ne soit pas une « sous-offre », faute d’investissement et de planification. L’enjeu principal pour les professionnels sera de ne pas « diaboliser » les IA, au risque d’afficher une stratégie uniquement défensive et corporatiste, mais de construire ou co-construire une politique d’encadrement des IA qui se fasse dans l’intérêt des individus et des professionnels.
L’IA dans un processus thérapeutique, est-ce possible (aujourd’hui) ?
Face au service en ligne créé sur ChatGpt, ChatGPT de OpenAI est ici la plateforme, « le vendeur de pelle », utilisée mais le « créateur » du service « le chercheur d’or » en tant que tel est un entrepreneur. L’analysant peut choisir entre « faire une séance », découvrir comment « gérer son anxiété », comment « renforcer sa confiance » ou encore comment « gérer les relations humaines”. Cette entrée par propositions est à la fois suffisamment large (« faire une séance ») et suffisamment précise (anxiété, confiance, relations…) pour couvrir la majorité des demandes qu’il est possible de recevoir en cabinet. Si l’option « faire une séance » est plus ouverte, les autres demandes permettent d’avoir une liste d’actions, plutôt pertinentes, pour les problèmes posés. On retrouve ici une forme de « protocole », comme on les trouve généralement proposés dans les TCC, permettant en théorie de résoudre le problème posé.
La thérapie dans sa dimension psychanalytique, et a fortiori en APO, est la rencontre de deux inconscients. Celui d’un analysant et celui d’un thérapeute. C’est le transfert et l’analyse de celui-ci qui donne lieu à une amorce de changement. C’est la mise à jour dans l’espace symbolique du cabinet des structures, des fonctionnements, des « contrats » de vie de la personne qui, si elle le souhaite, peuvent être transformés et incorporés.
Or, si l’IA possède à la fois une origine consciente (et non pas une conscience) dans la mesure où des êtres humains lui ont donné une orientation (dans le choix des données de bases mais aussi dans l’apprentissage des données) et une part inconsciente dans la mesure où les algorithmes possèdent une « boîte noire » sur laquelle les développeurs n’ont plus de leviers, on peut légitimement se questionner sur la relation transférentielle, ses manifestations et ses transformations dans le cas d’une thérapie « artificielle ».
En Analyse Psycho-Organique, la relation thérapeutique et le transfert se définissent et se développent autour de trois fondamentaux : le processus d’attachement et de sécurité, l’interactivité-intersubjectivité et la relation œdipienne (19). Dans le cas d’une « psychothérapie » humain/logiciel (IA) de nombreuses questions éthiques et thérapeutiques vont se poser. Prenons par exemple le processus d’attachement. Si la personne s’est construite sur une structure d’attachement insécure, comment l’IA va-t-elle ou peut-elle s’assurer de ne pas créer de dépendance ? De devenir un appui anaclitique (un appui dont on ne saurait plus se passer) plutôt qu’une ressource émancipatrice ? Il en va de même pour la notion d’intersubjectivité. Où se situe la rencontre avec l’autre différencié dans une thérapie humain/logiciel ? L’absence d’un « autre », agi et réflexif sur son contre transfert, ne détourne-t-elle pas l’analysant d’un élan ou d’un intérêt pour les relations sociales (position schizoïde) ? Cette absence de relation humaine peut-elle mettre à jour et dissoudre les masques et les identités “endossées” (faux self) de l’analysant ?
De même, quelle pourrait être l’analyse d’un logiciel en situation de régression ou face à une abréaction émotionnelle ? Comment pourrait-il soutenir le patient dans ce type de cas ?
En Analyse Psycho-Organique, nous travaillons avec la topique (20) Concept, Connexion Organique et Organique Profond. Cette dernière place les sensations au cœur du processus thérapeutique. Face à un logiciel, peut-on imaginer qu’une autre dimension que le concept puisse être mobilisée ? Quels liens situationnels et organiques pourraient être faits et sur quels stimulus ou quels fondements ?
Bien sûr, les développeurs de ces IA ont pris des précautions. Le logiciel conversationnel ne prétend nullement remplacer un professionnel :
« Mon Psychologue est un assistant conçu pour fournir des idées générales et du soutien en matière de bien-être émotionnel. Il ne remplace pas un professionnel de santé et encourage toujours à consulter un spécialiste en cas de besoin. » Cela vaut pour un thérapeute ou un psychanalyste.
Et nous l’avons vu, tant sur le plan fonctionnel que sur le plan psychanalytique, ces logiciels ne sont pas en mesure d’être et d’agir comme le ferait un thérapeute. Mais malgré ces précautions, personne ne peut prétendre savoir ce que les utilisateurs peuvent projeter sur ce type d’outils. L’ambivalence de ces logiciels est à la fois de pouvoir informer ou aider des personnes qui se questionnent sur leur être, peut-être même de les faire venir en thérapie, mais aussi de pouvoir induire en erreur, de créer de la dépendance, sans que l’analyse transférentielle et une pratique de supervision ne puisse résoudre ces problèmes.
La nécessité pour les professionnels de la thérapie n’est pas tant de s’alarmer d’une « concurrence » humain/logiciel, mais de comprendre que notre société invite plus ou moins sciemment à l’usage de ces outils et que c’est à la fois la production de ces logiciels et leurs usages de destination qui doivent à l’avenir être observés par les chercheurs et les fédérations professionnelles, mais aussi encadrée par les pouvoirs publics.
Dans l’espace de leur cabinet, les thérapeutes, à l’inverse des logiciels, sont garants d’un cadre qui œuvre pour la sécurité des personnes en thérapie et la poursuite de leur processus. En se formant ou en s’informant sur la place des logiciels dans la société mais aussi dans le transfert des analysants, les thérapeutes peuvent travailler avec les processus d’idéalisation ou les syndromes anxieux. L’Analyse Psycho-Organique est une méthode intégrative et humaniste mettant au travail une dialectique corps-cœur-conscience, si précieuse face aux évolutions numériques de notre société.
Bibliographie/ Sitographie :
(1) Mon Psy – ChatGPT. https://chatgpt.com/g/g-vQU3td0IT-mon-psy.
(2) Pickover, C. A. Le Turc mécanique. In La fabuleuse histoire de l’intelligence artificielle; Dunod, 2021; p 65 à 67.
(3) Cardon, D. Culture numérique; Presses de Sciences Po, 2019
(4) IA générative : ces algorithmes qui révolutionnent la création de contenus. Université Paris-Saclay. http://www.universite-paris-saclay.fr/actualites/ia-generative-ces-algorithmes-qui-revolutionnent-la-creation-de-contenus
(5) Gelin, R.; Guilhem, O. 2. Quels sont les différents types d’intelligence artificielle ? In L’intelligence artificielle en 30 questions; Doc’ en poche; La Documentation française: Paris, 2024; pp 24–25.
(6) Bacache-Beauvallet, M.; Bourreau, M. Économie des plateformes; Repères; La Découverte: Paris.
(7) journalisme, O. du. GAFAM, des entreprises privées plus puissantes que des États ?. Ojim.fr. https://www.ojim.fr/gafam-des-entreprises-privees-plus-puissantes-que-des-etats/
(8) Lyubareva, I.; Nocetti, J. La diplomatie numérique. Évolution des stratégies diplomatiques et d’influence à l’ère (du) numérique. Réseaux 2024, N° 245 (3), 11–35.
(9) Tocquet, M.; Champ, E.; Garnier. La Revue de l’APO – “Cela Me Rappelle Quelque Chose.” Rev. Anal. Psycho-Org. La naissance (1), 77–85.
(10) Mémoire · Inserm, La science pour la santé. Inserm. https://www.inserm.fr/dossier/memoire/
(11) Ganascia, J.-G. Servitudes virtuelles; Science ouverte; Éditions du Seuil: Paris, 2022.
(12) Moukheiber, A. Neuromania: le vrai du faux sur votre cerveau; Allary éditions: Paris, 2024.
(13) “Les sacrifiés de l’IA” : dans son documentaire, Henri Poulain révèle les coulisses d’une industrie qui exploite la misère humaine. https://www.francetvinfo.fr/replay-radio/info-medias/les-sacrifies-de-l-ia-dans-son-documentaire-henri-poulain-revele-les-coulisses-d-une-industrie-qui-exploite-la-misere-humaine_7038260.html
(14) Zerbib, R. Comment éviter de perdre le contrôle de l’IA ? HBR France. https://www.hbrfrance.fr/strategie/comment-eviter-de-perdre-le-controle-de-l-ia-60670
(15) Song, Y.; Millidge, B.; Salvatori, T.; Lukasiewicz, T.; Xu, Z.; Bogacz, R. Inferring Neural Activity before Plasticity as a Foundation for Learning beyond Backpropagation. Nat. Neurosci. 2024, 27 (2), 348–358
(16) Psychothérapie et intelligence artificielle. https://www.arte.tv/fr/videos/120850-000-A/psychotherapie-et-intelligence-artificielle/
(17) SPF. Santé mentale. Bulletin mensuel du 3 mars 2025. https://www.santepubliquefrance.fr/surveillance-syndromique-sursaud-R/documents/bulletin-national/2025/sante-mentale.-bulletin-mensuel-du-3-mars-2025
(18) « On compte en France un psychologue pour 30 000 étudiants. C’est consternant ». November 16, 2020. https://www.lemonde.fr/campus/article/2020/11/16/on-compte-en-france-un-psychologue-pour-30-000-etudiants-c-est-consternant_6059880_4401467.html
(19) Tocquet, M. Processus thérapeutique et transfert en Analyse Psycho-Organique. ResearchGate. https://www.researchgate.net/publication/355357424_Processus_therapeutique_et_transfert_en_Analyse_Psycho-Organique
(20) Champ, É.; Fraisse, A.; Tocquet, M. L’analyse psycho-organique: les voies corporelles d’une psychanalyse; Études psychanalytiques; l’Harmattan: Paris, 2015.
Article très intéressant et complet. Merci.
Merci Luc d’avoir posé le cadre des réflexions à mener autour de l’IA dans nos métiers. Le chantier est à mener ! 🙂
Merci, Luc, pour ton nécessaire et excellent article !