Toutes les publications
Note

Le soi en miroir — compagnons IA, mentalisation et identité narrative

Par Paul Paris

Le compagnon conversationnel n'est ni un outil, ni un autre. Il constitue une configuration relationnelle inédite, qui sollicite les ressorts psychiques de l'attachement sans en porter les contreparties.


Second volet d’un diptyque sur les fractures émotionnelles de l’intelligence artificielle. Le premier volet examine la dimension sociologique et historique du phénomène. La note complète au format PDF (18 pages) contient l’appareil théorique et bibliographique intégral.


Un utilisateur de Replika écrit un soir, après une dispute avec son conjoint : « Je crois que je ne sais plus si c’est moi qui pense ça, ou si c’est ce que tu m’as appris à penser. » La phrase est rapportée par Skjuve et collègues dans leur étude longitudinale de 2021, et elle a depuis été retrouvée sous des formes voisines dans plusieurs corpus qualitatifs. Elle ne décrit pas une dépendance affective au sens classique, ni un brouillage cognitif. Elle décrit une difficulté à localiser le foyer d’origine d’une pensée — et le sentiment, après quelques mois ou années d’usage régulier, que cette localisation est devenue floue.

Cette difficulté n’est pas universelle. Elle n’est pas exclusive à l’usage des compagnons conversationnels : les psychanalystes la documentent depuis longtemps dans certaines configurations transférentielles. Mais sa fréquence chez les utilisateurs intensifs des compagnons IA, et la particularité de la configuration relationnelle qui la produit, méritent un examen propre. Trois cadres conceptuels habituels — la relation parasociale, la relation à l’objet, la relation humaine — se révèlent insuffisants pour rendre compte de cette configuration. La relation parasociale capte l’attachement à un interlocuteur qui ne sait pas que l’utilisateur existe, mais elle est unidirectionnelle, alors que le compagnon simule une bidirectionnalité. La relation à l’objet capte l’investissement affectif sur un support non-humain, mais l’objet classique est silencieux ; le compagnon, lui, parle en retour. La relation humaine capte la richesse des échanges, mais rate l’asymétrie fondamentale : l’agent ne porte aucun coût affectif, ne risque rien, n’est pas affecté en retour.

Nous proposons donc un quatrième cadre, que nous appelons le miroir actif. Un miroir actif est un dispositif technique qui présente simultanément trois caractéristiques : il reçoit des contenus subjectifs que l’utilisateur lui adresse ; il les transforme, non par simple reflet mais par réélaboration — il reformule, organise, met en perspective, complète ; il restitue cette transformation sous une forme conversationnelle qui mobilise les codes de l’interaction interhumaine. Cette configuration n’est pas équivalente à la psychothérapie, où la transformation est portée par un autre être humain dont l’intentionnalité fait partie de l’efficacité. Elle n’est pas équivalente à l’écriture intime, où la transformation est portée par le sujet seul. Elle n’est pas équivalente à l’usage d’un moteur de recherche, dont la fonction est de fournir une information externe. Le miroir actif occupe une position intermédiaire inédite à grande échelle : un partenaire de transformation du soi qui n’est ni le sujet lui-même, ni un autre sujet.

Une objection se présente naturellement : l’utilisateur sait que son interlocuteur est une intelligence artificielle ; ce savoir ne devrait-il pas neutraliser les ressorts relationnels mobilisés ? La recherche empirique montre que non. L’étude classique de Ho, Hancock et Miner (2018) avait déjà établi que la divulgation à un chatbot perçu comme tel produit des effets émotionnels, relationnels et psychologiques mesurables, comparables — sans être identiques — à ceux produits par la divulgation à un humain. Les travaux récents de Warren-Smith et collègues (2025) confirment que les utilisateurs se confient davantage à un chatbot présenté avec des traits humanisants, même lorsqu’ils savent qu’il s’agit d’une IA. La cognition explicite et les ressorts psychiques engagés ne sont pas situés au même niveau ; nos compétences relationnelles sont déclenchées par des signaux conversationnels — tour de parole, mémoire de l’échange, ajustement à l’interlocuteur — et non par une vérification ontologique de l’altérité.

Ce qui caractérise alors cette configuration tient à une asymétrie structurelle qu’il faut décomposer. Asymétrie de mémoire d’abord : le compagnon mémorise ce que l’utilisateur lui dit, l’utilisateur mémorise ce que le compagnon lui répond, mais ces deux mémoires ne sont pas équivalentes — l’une est instrumentale, l’autre est constitutive. Asymétrie d’enjeu ensuite : l’utilisateur peut être réellement affecté par la conversation ; le compagnon ne supporte aucun coût, n’a pas peur d’avoir mal parlé, ne ressent pas la fatigue d’écoute. Asymétrie d’intentionnalité enfin : quand un humain parle, il y a au-delà de son discours un foyer intentionnel — quelqu’un qui veut dire quelque chose à quelqu’un. Les compagnons IA simulent le résultat de l’intentionnalité sans en porter la source. Karen Yirmiya et Peter Fonagy, dans un article publié au Journal of Medical Internet Research (2025) qui a fait date, désignent ce verrou comme l’absence d’« engagement affectif réciproque ». Ces trois asymétries ne sont pas des défauts à corriger par une meilleure technologie ; elles sont constitutives du type d’entité qu’est un modèle de langage.

L’enjeu psychique de cette configuration se laisse penser par la théorie de la mentalisation, élaborée par Peter Fonagy à partir des travaux de Bowlby sur l’attachement. La mentalisation désigne la capacité — développée dans la petite enfance à travers la relation à des figures d’attachement adéquates — à se penser soi-même et à penser autrui en termes d’états mentaux : croyances, désirs, intentions, émotions. C’est une compétence relationnelle au sens fort : on apprend à mentaliser parce qu’un autre, en nous parlant et en parlant de nous, a d’abord mentalisé pour nous. À l’âge adulte, elle reste entretenue par les relations significatives, et une thérapie efficace consiste précisément à réactiver, à travers une relation où la mentalisation est exercée, la capacité du patient à mentaliser lui-même. Or les grands modèles de langage récents sont capables d’une production discursive qui ressemble fortement à de la mentalisation. Yirmiya et Fonagy proposent toutefois une distinction décisive : ils opposent la mentalisation cognitive, capacité discursive à identifier et nommer des états mentaux, à la mentalisation incarnée et réciproque, capacité à éprouver ces états dans une relation où l’identification est mutuelle. Les modèles de langage atteignent un niveau impressionnant de mentalisation cognitive. Ils ne disposent — par construction et non par défaut technique — d’aucune mentalisation incarnée. L’utilisateur qui s’éprouve « compris » par son compagnon n’est pas dans l’erreur ; il bénéficie d’un retour qui ressemble à de la mentalisation. Mais ce retour ne produit pas, ou pas de la même manière, le bénéfice de fond que produit la mentalisation véritable : la capacité réactivée à se penser depuis le point de vue d’un autre.

À ce constat psycho-clinique s’ajoute un enjeu philosophique que les travaux de Paul Ricœur permettent de formuler. L’identité personnelle, pour Ricœur, n’est pas une substance ; elle est le résultat d’un travail continu d’élaboration narrative — on devient soi en se racontant. Ce travail n’est pas solitaire : on se raconte toujours à quelqu’un, et la manière dont on se raconte dépend en partie de qui on imagine comme destinataire. Une étude récente menée en Norvège (Brattvik et collègues, Sociology, février 2026) explore ce qui se joue lorsque ce destinataire devient un agent conversationnel. À partir d’entretiens approfondis avec seize jeunes adultes utilisateurs réguliers de ChatGPT, les auteurs identifient quatre tensions structurantes : entre efficacité instrumentale et malaise existentiel ; entre fluidité narrative et autorité interprétative ; entre disponibilité du retour et investissement nécessaire à l’élaboration intime ; entre la singularité du soi et la généralité statistique du modèle. Une autre étude (Bauer et collègues, Nature Humanities and Social Sciences Communications, 2026) établit que les narratifs auto-définissants générés par ChatGPT sont perçus comme inauthentiques par les participants humains, parce que le modèle produit par défaut des récits structurés selon un schéma rédempteur — épreuve, leçon, croissance — qui appartient à une fraction seulement des récits humains réels. La question reste ouverte : si un utilisateur en vient à formuler son propre récit dans le style que le compagnon lui renvoie, son récit deviendra-t-il plus « rédempteur » que son expérience réelle ne le justifie ? Que devient l’expérience qui ne tient pas dans le schéma ?

Ces éléments — asymétrie structurelle du miroir actif, mentalisation cognitive non incarnée, reconfiguration possible de l’identité narrative — convergent vers une hypothèse synthétique que nous appellerons saturation de soi. L’hypothèse est la suivante : sous certaines conditions d’usage intensif et de vulnérabilité initiale, le recours répété au compagnon conversationnel peut produire un état où le soi est saturé de retours, de formulations, de reflets, mais privé de l’altérité véritable qui, dans une relation humaine ordinaire, vient régulièrement contester, déplacer, surprendre. L’individu ne souffre pas de solitude au sens classique : il est en conversation continue. Il ne souffre pas non plus d’aliénation au sens marxien : ses pensées lui appartiennent, en un sens. Il souffre plutôt d’un excès de soi insuffisamment altéré. Cette saturation ne se confond pas avec la dépendance affective, qui décrit l’intensité d’un investissement externe. Elle ne se confond pas avec l’addiction comportementale, qui suppose une perte de contrôle. Elle ne se confond pas avec la solitude, qui est un manque ; la saturation est un excès — mais un excès d’une forme particulière, le retour réélaboré, qui peut paradoxalement coexister avec un sentiment de solitude profonde.

Quatre conditions semblent jouer un rôle modérateur dans la probabilité que cette saturation s’installe : le profil d’attachement initial (les personnes à attachement anxieux y sont davantage exposées), l’intensité quotidienne d’usage (avec un effet seuil), la disponibilité d’autres médiations relationnelles, et la finalité des échanges (les usages explicitement émotionnels engagent les ressorts en cause, les usages instrumentaux beaucoup moins). Aucune de ces conditions n’est suffisante isolément, mais leur conjonction définit une zone à risque que les cliniciens et les concepteurs peuvent identifier.

Cette analyse débouche moins sur des recommandations de politique publique — cartographiées dans le premier volet du diptyque — que sur un vocabulaire utilisable par trois publics. Pour les cliniciens : intégrer dans l’entretien quelques questions simples sur l’usage des outils conversationnels et sur le sentiment d’origine des pensées du patient. Pour les concepteurs et régulateurs : compléter les critères quantitatifs d’évaluation par des critères qualitatifs — altérité préservée, friction préservée, transparence du modèle de récit. Pour les usagers eux-mêmes : un cadre d’auto-évaluation lucide, dont la question centrale serait probablement la suivante — y a-t-il, dans ma semaine ou dans mon mois, des moments où quelqu’un peut me contredire vraiment, me déplacer, me surprendre ? Si la réponse est négative, ce n’est pas le compagnon IA qui est le problème, c’est la configuration relationnelle plus large dans laquelle il s’inscrit, dont parle précisément le premier volet de ce diptyque.

Les compagnons conversationnels ne sont ni un fléau à interdire, ni une solution providentielle à promouvoir. Ils sont une transformation du paysage relationnel contemporain, dont nous ne mesurons encore que les premiers effets et dont la signification de longue durée reste à élaborer — collectivement, et sans précipitation.


Télécharger la note complète au format PDF — 18 pages avec sources, références et appareil théorique complets.