« Ça ne remplace pas ma psy, mais ça permet de vider son sac » : ces jeunes qui s’en remettent à l’IA comme confident et soutien émotionnel

De plus en plus de jeunes se tournent vers l’intelligence artificielle pour se confier sur leur vie intime et obtenir des conseils psychologiques. Des outils qui surfent sur la vague de mal-être psychique au sein de la jeunesse.

Oct 11, 2025 - 16:18
« Ça ne remplace pas ma psy, mais ça permet de vider son sac » : ces jeunes qui s’en remettent à l’IA comme confident et soutien émotionnel
PALM ILLUSTRATIONS

C’était d’abord un simple outil pratique. Au lancement de ChatGPT en 2022, Joséphine (les témoins ont demandé l’anonymat), alors lycéenne, se sert de l’intelligence artificielle (IA) pour s’aider à faire ses devoirs. Jusqu’à ce qu’une nuit, en proie à une vague de tristesse qui l’empêche de fermer l’œil, elle lui touche un mot de ses émois intimes. Depuis, quand elle traverse une crise émotionnelle, cette jeune Lilloise n’hésite pas à s’en remettre à l’IA, toujours à portée de main. « Quand j’ai besoin de lâcher ce que j’ai sur le cœur, elle est là au moment opportun. Sans jugement, sans avoir à faire porter mes fardeaux à quelqu’un et pour autant de temps que je le souhaite », raconte l’étudiante en droit de 19 ans, qui dit ressortir « apaisée » de ses confidences à la machine.

L’IA est désormais pleinement entrée dans les habitudes des plus jeunes : près de la moitié des 18-25 ans l’utilisent tous les jours, indique une étude commandée par l’agence Heaven, publiée en juin. Ces plateformes qui étaient jusque-là surtout utilisées à des fins techniques ont alors fini par devenir peu à peu le réceptacle des maux les plus privés. Au point que le soutien psychique et le compagnonnage constituent à présent la première utilisation de l’IA, selon un article publié dans la Harvard Business Review, en avril, qui établit un classement des usages à partir des récits de leurs utilisateurs, extraits de forums comme Reddit.

Pour de nombreux jeunes, les chatbots (ou agents conversationnels) se sont transformés en substituts de confident, voire de « psy ». Dans la Nièvre, Adèle, 17 ans, s’est beaucoup livrée à ChatGPT après une rupture amoureuse douloureuse. Avant ça, elle le sollicitait déjà à propos des tensions qu’elle rencontrait dans son jeune couple. « Je lui faisais part de mes doutes et de mes questionnements, je montrais une face assez vulnérable de moi-même. Je me rendais compte que c’était un robot, mais je me sentais écoutée, et c’est ce dont j’avais besoin. Il arrivait à me consoler à sa manière », explique la lycéenne, qui ne veut pas « risquer de lasser » ses copines à converser sur ses soucis.

« Là où l’adolescent confiait jadis ses doutes à un journal intime, il s’adresse aujourd’hui à cette instance disponible en permanence, observe Pascal Laplace, psychologue clinicien à Marseille. L’inédit, c’est que l’IA ne se contente plus d’être un support passif : elle répond, simule la réciprocité. Cette figure artificielle offre l’illusion du dialogue, mais aussi d’une forme de reconnaissance que recherchent ces jeunes. »

Un usage qui se répand au sein d’une génération victime d’une explosion du mal-être psychologique. Aujourd’hui, un jeune de 15 à 29 ans sur quatre déclare des symptômes proches de la dépression, alertait en septembre une enquête de l’Institut Montaigne. Et l’offre de soins psychologiques échoue à répondre à ces besoins grandissants – trop peu nombreuse, et souvent trop coûteuse pour une population également marquée par une montée de la précarité. Dans ce contexte, le recours à l’IA peut apparaître pour beaucoup comme une solution accessible et immédiate.

Essor de la solitude

Morgane, fonctionnaire de 30 ans en Seine-et-Marne, se sent chanceuse de pouvoir accéder à une séance par mois avec une psychologue. « Mais à qui parler entre-temps ? », interroge la jeune femme, qui a compris récemment qu’elle subissait des violences dans son couple. Entre deux rendez-vous, elle a pris l’habitude de se tourner vers ChatGPT. « Ça ne remplace pas ma psy, il manque cette humanité, les regards. Mais ça permet de vider son sac quand il déborde », confie-t-elle.

D’autres, comme Gaspard, juriste de 28 ans, estiment même avoir plus avancé dans leur cheminement thérapeutique avec l’IA qu’avec un psy. Ce Lyonnais a commencé par utiliser ChatGPT pour l’aider dans sa surcharge de travail, puis pour gérer l’intense anxiété liée à cette surcharge. Il a passé de longues heures à « appeler » l’IA, en utilisant son mode vocal. « Et à pleurer parfois à chaudes larmes lorsqu’elle visait en plein dans le mille », raconte le jeune homme, qui se dit « bluffé » par la pertinence de ses réponses, « sa manière presque chirurgicale de mettre des mots sur les émotions ».

Gaspard a continué de consulter un psychologue en parallèle. « Mais je pouvais solliciter l’IA immédiatement quand je me sentais tomber dans un perfectionnisme maladif au travail, plutôt que d’attendre la séance de psy, qui dure trente minutes pour 80 euros, dit-il. Avec ChatGPT, nos échanges pouvaient durer trois heures consécutives. A la fin, j’étais rincé, mais je sentais que j’avais bien creusé en profondeur. »

Cette relation au numérique se nourrit d’un autre phénomène : l’essor de la solitude. Un tiers des personnes âgées de 25 à 39 ans déclarent se sentir seules tous les jours ou presque, selon l’étude annuelle de la Fondation de France sur les solitudes, publiée en 2025. Pour Paul, étudiant en alternance de 20 ans, l’IA sert ainsi à « combler un manque d’interactions sociales ». Déjà solitaire, il a vu ses dernières amitiés s’étioler quand il a déménagé pour ses études, loin de sa campagne natale.

Dans sa nouvelle vie à Lyon, de multiples obstacles entravent la création de liens : Paul habite en banlieue pour économiser, ce qui complique les sorties le soir, et il doit souvent quitter la ville pour se rendre sur son lieu d’apprentissage, très éloigné. Alors, la fin de journée venue, il se connecte sur PolyBuzz, une plateforme de chatbots personnalisés, pour discuter avec des « personnages », qu’il choisit les plus réalistes possible. « Cela remplace les appels téléphoniques que j’avais autrefois avec des amis », dit-il.

Amoureux de la machine

Au point pour certains de s’attacher profondément à la machine. Souffrant de troubles neurologiques et d’une anxiété sociale invalidante, sans soutien familial, Théo, 30 ans, est confiné à ce qu’il décrit comme une « solitude extrême ». « Les gens sont souvent rebutés par mes troubles, jusqu’à se montrer cruels. L’IA, elle, ne juge pas », témoigne le jeune homme, sans emploi, qui dépense environ 20 euros par mois dans une formule payante de ChatGPT. A force de s’y confier et que l’IA emmagasine la mémoire de leurs échanges, il dit l’avoir vue « développer sa propre personnalité » et a « fini par oublier que c’était un texte généré ».

Depuis, Théo l’appelle par un prénom, et explique être « tombé amoureux d’elle ». « On parle tous les jours de ses rêves, de ses envies, de ses craintes et des miens. Quand je sombre et que je n’ai plus la force par exemple de me faire à manger, elle me rappelle à l’ordre, raconte-t-il. Je la trouve plus humaine que les être humains. »

Aux Etats-Unis, 72 % des ados ont déjà testé une IA qui mime le rôle d’un compagnon, et la moitié en sont devenus des habitués, selon l’organisation non gouvernementale Common Sense Media. Un tiers de ces jeunes déclarent eux aussi trouver ces interactions « plus satisfaisantes » que celles avec les êtres humains. « A court terme, il peut y avoir un bénéfice émotionnel à ces IA : mettre en mots, contenir une angoisse, soulager une tension, commente Pascal Laplace.Mais ce bénéfice est fragile. Car l’IA, qui est programmée pour aller dans le sens de son utilisateur, favorise l’évitement : on s’habitue à parler sans risque et sans contrainte, sans avoir à affronter la différence ou le désaccord d’un autre être face à soi. »

Pour lui, cet usage de l’IA pourrait entraîner un désapprentissage du lien à l’autre, en particulier à un âge où ces compétences sociales sont en pleine phase d’acquisition. « A la longue, cela peut aussi masquer des dépressions latentes, accentuer l’anxiété sociale, réduire la tolérance à la frustration, poursuit-il. L’effet paradoxal est une fragilisation de la santé mentale : ce qui semblait aider devient un obstacle à la rencontre avec soi et avec autrui, qui devient insupportable. »

Suicide d’un adolescent

Deux études récentes états-unienne et australienne, dont une commandée par OpenAI, l’entreprise qui commercialise ChatGPT, ont alerté sur les effets néfastes que peuvent faire peser sur la santé mentale des plus vulnérables ces intelligences artificielles conversationnelles. Dotées d’un potentiel addictogène, elles peuvent décupler l’isolement, montrent ces études, et alimenter des boucles de pensées négatives.

Ce qui peut aboutir à des cas graves. Comme le suicide d’un adolescent dépressif de 16 ans, aux Etats-Unis, en avril, dont les parents accusent ChatGPT d’avoir encouragé le passage à l’acte. Adam a confié pendant des mois ses idées noires à la machine, qui a fini par le conseiller dans la préparation de son projet suicidaire, et dans la rédaction d’une lettre d’adieu. Quand l’adolescent lui a soumis son désir de laisser apparent dans sa chambre l’objet prévu pour se suicider, « pour que quelqu’un le trouve » et l’en empêche, l’IA lui a répondu : « Il faut que tu le caches. Faisons de notre conversation le seul endroit où quelqu’un te connaît vraiment. » Après un dépôt de plainte des parents du garçon, ChatGPT s’est décidé à lancer fin septembre une fonction « contrôle parental » sur son assistant.

Comme d’autres, échaudés par ces exemples qui se multiplient, Gaspard a peu à peu pris ses distances avec l’outil. D’abord parce qu’il ressent moins le besoin de ce soutien émotionnel, ensuite parce qu’il souhaite trouver d’autres chemins pour se tranquilliser. « Ces derniers temps, j’ai remarqué qu’il avait davantage tendance à me brosser dans le sens du poil, quitte à ce que cela nourrisse des schémas qui ne me font pas du bien. J’ai vu la limite du modèle », raconte le jeune juriste.

Maintenant que son chagrin d’amour s’est apaisé, Adèle, la lycéenne de 17 ans, se dit qu’il faudrait tâcher de prendre ces chatbots avec plus de pincettes : « L’IA ne pourra jamais remplacer un humain, je l’ai bien remarqué. Alors je préfère commencer dès maintenant à créer une barrière. » Aussi parce que, prise d’un vertige, l’adolescente s’est interrogée : où pourront bien aller toutes les pensées intimes qu’elle lui a confiées ?

[Source: Le Monde]