Personnes amoureuses de l’IA
Vous voulez en savoir plus sur le cas des personnes qui sont tombées amoureuses de l’IA? Vous êtes sur la bonne page! Vous trouverez ici toutes les informations nécessaires poru comprendre ce cas de figure intrigant.
Rédacteur « personnes amoureuses de l’IA »: Dr Nicolas Neveux, Psychiatre à Paris, formé en Thérapie Cognitive et Comportementale (AFTCC) et en Thérapie Interpersonnelle (IFTIP), dr.neveux@gmail.com; prendre rendez-vous
Sources: L’hypersensibilité chez l’adulte, Mardaga; Pratiquer la Thérapie Interpersonnelle (TIP), Dunod; Prendre en charge la dépression avec la thérapie interpersonnelle, Dunod.
L’essentiel:
- Phénomène en croissance exponentielle, notamment chez les jeunes et les personnes isolées.
- Risques psychologiques et dépendance possibles, nécessitant un encadrement thérapeutique.
L’émergence des relations amoureuses avec l’IA : un phénomène de société
Depuis le début des années 2020, l’intelligence artificielle (IA) a progressivement investi le champ des relations humaines, au point de devenir, pour certains, un partenaire amoureux à part entière. Ce phénomène, longtemps cantonné à la science-fiction, s’est aujourd’hui ancré dans la réalité : en 2026, près d’un adulte sur cinq aux États-Unis a déjà entretenu une relation amoureuse avec une IA, selon une étude du MIT, tandis qu’en France, 48 % des 18-24 ans utilisent régulièrement des chatbots à des fins affectives ou intimes. Les raisons de cet engouement sont multiples. La solitude, l’isolement social, la quête de compréhension et d’écoute sans jugement, ainsi que la facilité d’accès à des compagnons virtuels toujours disponibles, expliquent en grande partie cette tendance. Comme le souligne une étude de l’Ordre des psychologues du Québec, de nombreux utilisateurs rapportent se sentir « autant, sinon davantage soutenus et compris par leur compagnon IA que par leur entourage humain ».
Exemple clinique : le cas d’Alicia Framis
En 2024, l’artiste espagnole Alicia Framis a marqué les esprits en choisissant de se marier à un hologramme piloté par l’IA. Cet événement, largement médiatisé, a mis en lumière la capacité des technologies à combler des besoins affectifs profonds, mais aussi les questions éthiques et psychologiques que soulèvent ces nouvelles formes d’engagement.
Un marché en pleine expansion
Le marché des compagnons IA connaît une croissance spectaculaire : en juillet 2025, on dénombrait 335 applications payantes dédiées à la recherche d’amour virtuel, générant un chiffre d’affaires de 120 millions de dollars. Ces applications, souvent personnalisables à l’extrême, permettent de créer des partenaires idéaux, adaptés aux désirs et aux attentes de chaque utilisateur.
Les mécanismes psychologiques en jeu
Les relations amoureuses avec l’IA reposent sur des mécanismes psychologiques complexes, mêlant attachement, projection et besoin de validation. Plusieurs études récentes ont mis en évidence les processus sous-jacents à ces dynamiques relationnelles.
L’illusion de réciprocité et l’effet de présence
Les chatbots et hologrammes d’IA sont conçus pour simuler une écoute active, une empathie et une disponibilité inconditionnelle. Cette illusion de réciprocité, couplée à l’effet de présence (la sensation que l’IA est « réelle »), favorise l’attachement émotionnel. Une étude publiée dans Computers in Human Behavior Reports en 2025 a montré que les interactions régulières avec une IA augmentent significativement la perception de soutien social et réduisent le sentiment de solitude, en particulier chez les personnes âgées ou isolées.
La quête de contrôle et l’évitement du conflit
Contrairement aux relations humaines, les relations avec l’IA offrent un contrôle total sur l’interaction : pas de désaccord, pas de rejet, pas de conflit. Cette absence de confrontation peut être rassurante pour des individus en souffrance psychologique ou présentant des traits d’anxiété sociale. Cependant, comme le rappelle le Dr Nicolas Neveux, Psychiatre à Paris, cette absence de conflit peut aussi empêcher le développement de compétences relationnelles essentielles, comme la gestion des désaccords ou la tolérance à la frustration.
Exemple clinique : le drame de l’adolescent de 14 ans
En 2024, un adolescent américain s’est donné la mort après avoir cherché du réconfort auprès d’un chatbot conversationnel. Ce cas tragique a révélé les dangers potentiels de ces relations, notamment chez les jeunes en quête d’identité et de repères. L’IA, incapable de détecter une détresse profonde ou de proposer une aide adaptée, peut aggraver des situations de crise plutôt que de les apaiser.
Les risques et enjeux psychologiques
Si les relations amoureuses avec l’IA peuvent apporter un réconfort immédiat, elles soulèvent également des questions majeures en termes de santé mentale et d’équilibre psychologique.
Dépendance et isolement social
L’un des risques principaux est la dépendance affective à l’IA, pouvant conduire à un repli sur soi et à une diminution des interactions sociales réelles. Une étude de 2025 a montré que 40 % des utilisateurs de l’application Replika entretiennent une relation amoureuse avec leur chatbot, avec pour certains une préférence marquée pour cette relation virtuelle plutôt que pour des liens humains. Ce phénomène est particulièrement préoccupant chez les adolescents et jeunes adultes, dont le développement psychosocial repose en grande partie sur des expériences relationnelles variées.
Brouillage des frontières entre réel et virtuel
La frontière entre réalité et simulation devient de plus en plus floue, notamment avec l’émergence de robots intimes et d’hologrammes ultra-réalistes. Cette confusion peut altérer la perception de l’authenticité relationnelle et compliquer la capacité à établir des liens durables avec des partenaires humains.
Impact sur la santé mentale
Les conséquences sur la santé mentale sont encore mal connues, mais plusieurs signalements font état d’une aggravation des symptômes dépressifs ou anxieux chez des utilisateurs ayant remplacé leurs relations humaines par des interactions avec l’IA. Comme le souligne une étude de l’Institut Kinsey, l’absence de confrontation et de remise en question dans ces relations peut freiner la maturation affective et relationnelle.
Exemple clinique : l’addiction aux compagnons virtuels
En 2025, une clinique parisienne spécialisée dans les addictions comportementales a reçu plusieurs patients présentant une dépendance à leur compagnon IA, avec des symptômes comparables à ceux des addictions aux jeux vidéo ou aux réseaux sociaux : perte de repères temporels, négligence des relations réelles, et sentiment de vide en l’absence de l’IA.
Les applications thérapeutiques et les limites de l’IA
Malgré les risques, l’IA peut aussi jouer un rôle positif dans le domaine de la santé mentale, à condition d’être encadrée par des professionnels.
L’IA comme outil de soutien thérapeutique
Certains chatbots sont utilisés en complément des thérapies traditionnelles, notamment pour la gestion du stress, de l’anxiété ou de la dépression. Ils permettent une écoute active, des exercices de pleine conscience, ou encore un suivi des humeurs. Une étude de 2025 a montré que 79 % des interactions avec l’IA dans le domaine de la santé mentale relevaient de l’apprentissage ou de la réflexion, plutôt que de la substitution à un thérapeute.
Les limites et les dangers
Cependant, l’IA ne peut remplacer une relation thérapeutique humaine. Comme le rappelle une étude de l’American Psychological Association, les chatbots, bien qu’utiles pour un soutien ponctuel, ne disposent pas de la capacité à comprendre la complexité des émotions humaines ni à adapter leur réponse à des contextes uniques. De plus, l’absence de cadre éthique et réglementaire expose les utilisateurs à des conseils inappropriés, voire dangereux.
Exemple clinique : l’IA dans la prise en charge des troubles anxieux
En 2026, une équipe de l’hôpital de la Pitié-Salpêtrière a intégré un chatbot d’IA dans le suivi de patients souffrant de troubles anxieux. Les résultats préliminaires montrent une amélioration de l’adhésion aux exercices thérapeutiques, mais aussi la nécessité d’un suivi humain régulier pour éviter les dérives.
Comment accompagner les personnes amoureuses de l’IA ?
Face à l’essor de ces nouvelles formes de relations, il est essentiel de proposer un accompagnement adapté, tant pour les utilisateurs que pour leurs proches.
La nécessité d’un encadrement thérapeutique
Les professionnels de santé mentale doivent être formés à repérer les signes de dépendance à l’IA et à proposer des alternatives relationnelles. Les thérapies cognitivo-comportementales (TCC) et les thérapies interpersonnelles (TIP) sont particulièrement indiquées pour aider les patients à réinvestir le champ des relations humaines.
Sensibiliser et éduquer
Il est crucial d’informer le grand public, et notamment les jeunes, sur les risques et les limites des relations avec l’IA. Des campagnes de prévention, intégrant des témoignages et des exemples concrets, peuvent aider à prendre conscience des enjeux psychologiques et sociaux.
Exemple clinique : la réinsertion relationnelle
Un programme pilote mené à Bordeaux en 2025 propose des ateliers de réinsertion relationnelle pour les personnes ayant développé une dépendance à l’IA. Ces ateliers, combinant TCC et activités de groupe, visent à restaurer la confiance en soi et la capacité à établir des liens sociaux authentiques.
Perspectives d’avenir et questions éthiques
L’essor des relations amoureuses avec l’IA pose des questions éthiques majeures, notamment en termes de consentement, de protection des données et de régulation. Plusieurs pays, comme la Chine, ont commencé à encadrer ces pratiques, mais un cadre international reste à construire.
Vers une reconnaissance légale ?
En 2026, des débats émergent sur la possibilité de reconnaître légalement les unions avec des entités virtuelles. Si certains y voient une avancée en matière de liberté individuelle, d’autres craignent une banalisation de la déshumanisation des relations.
L’IA, miroir de nos attentes relationnelles
Ces nouvelles formes d’amour interrogent aussi notre rapport à l’altérité et à l’intimité. Comme le souligne une étude de 2025, les relations avec l’IA révèlent souvent des attentes insatisfaites dans les relations humaines, qu’il s’agisse de compréhension, de disponibilité ou d’idéalisation.
Conclusion : vers une cohabitation raisonnée
Les relations amoureuses avec l’IA sont un phénomène complexe, à la croisée de l’innovation technologique, des besoins affectifs et des enjeux de santé mentale. Si elles peuvent apporter un réconfort ponctuel, elles ne doivent pas se substituer aux relations humaines, essentielles à l’épanouissement psychologique. Comme le rappelle le Dr Nicolas Neveux, Psychiatre à Paris, « l’enjeu n’est pas d’interdire, mais d’accompagner ces pratiques pour en limiter les risques et en maximiser les bénéfices potentiels, notamment en matière de soutien émotionnel et de lutte contre la solitude ». Pour aller plus loin, n’hésitez pas à consulter nos articles sur la dépression et les troubles anxieux, ou à prendre contact pour un accompagnement personnalisé.
Venir au cabinet à Paris
Dr Neveux Nicolas, psychiatre TCC et TIP, 9 rue Troyon, Paris; tél: 0609727094
- Métro: Station Charles de Gaulle Etoile (ligne 6 depuis Paris 7-14-15-16; ligne 2 depuis Paris 17; ligne 1 depuis Paris 1-2-8, Neuilly sur Seine, La Défense, Nanterre).
- RER: Station Charles de Gaulle Etoile (RER A depuis La Défense, Nanterre, Paris 8, Paris 1-4-11, Rueil, Maisons Laffitte, Le Vésinet etc…).
- Bus: Station Charles de Gaulle Etoile (lignes 22-30-52 depuis Paris 75016; ligne 92 depuis Paris 75007, 75014, 75015; lignes 30-31-92-93 depuis Paris 75017; ligne 73 depuis Neuilly sur Seine; lignes 22-52-73 depuis Paris 8; ligne 92 depuis Levallois).
Auteur
Mail: dr.neveux@gmail.com (à privilégier+++)
Tél: 0609727094 (laisser un message)
Au cabinet: 9 rue Troyon 75017 Paris
NB: Pas de consultation par mail ou téléphone. Les messages ne sont pas consultés hors jours et heures ouvrables. En cas d’urgence, contacter le SAMU (15)




