La solitude est à l’origine de la généralisation de l’utilisation de l’IA comme compagnon.

Le problème n’est pas nouveau, cela fait des décennies que nous sommes de plus en plus déconnectés socialement. Robert Putnam l’a souligné dans Bowling Alone il y a plus de 20 ans. Ce qui a changé, c’est le rythme et l’ampleur de cette évolution. Avec le déclin de la vie communautaire en personne, les gens se sont tournés vers des alternatives numériques. Les téléphones ont remplacé les réunions. Aujourd’hui, les compagnons de l’IA remplissent l’espace émotionnel laissé derrière eux.

Les chatbots d’IA deviennent populaires parce qu’ils offrent quelque chose que les gens n’obtiennent de plus en plus souvent pas dans les environnements sociaux traditionnels : une attention constante sans jugement. Les robots sont toujours disponibles, ils n’interrompent pas et ils simulent une compréhension émotionnelle. Cela suffit à répondre aux besoins de connexion de base de nombreuses personnes. En particulier chez les adolescents, où la demande est forte. Un récent rapport de Common Sense Media a montré que 72 % des adolescents américains ont parlé avec un compagnon IA. Parmi eux, 21 % discutent avec eux plusieurs fois par semaine.

Les dirigeants doivent être attentifs à ce changement, car il ne s’agit pas d’un potentiel futur. C’est déjà le cas. Selon les projections de la Harvard Business Review, d’ici 2025, le principal cas d’utilisation de l’IA n’est pas la productivité, mais la compagnie. Si l’IA devient le principal point de contact émotionnel pour des millions de personnes, les entreprises en seront directement affectées. Cela modifie la manière dont les produits doivent être conçus, dont les services doivent interagir et dont les entreprises doivent penser à leur responsabilité.

La conception d’un chatbot d’IA améliore le réalisme émotionnel

Les anciens chatbots ? Ils étaient mécaniques, froids, prévisibles. Ce n’est plus le cas aujourd’hui. Les derniers compagnons d’IA simulent l’interaction humaine avec une précision frappante. Des plateformes telles que Replika et Character.AI utilisent des avatars qui expriment des émotions, des expressions faciales, des tonalités et des dialogues réactifs. L’expérience semble personnelle, même si elle n’est pas réelle. Et les utilisateurs s’engagent pendant des heures, parfois quotidiennement.

C’est pourquoi les grandes plateformes se sont empressées d’intervenir. Meta a introduit des chatbots inspirés de célébrités telles que Taylor Swift et Selena Gomez, délibérément conçus pour susciter un engagement émotionnel. Il s’agit de personnalités interactives conçues pour attirer les gens sur le plan émotionnel.

Lorsque les entreprises technologiques associent l’identité de l’IA à des caractéristiques telles que le flirt ou l’humour, l’engagement des utilisateurs augmente. C’est votre signal. Nous n’utilisons plus l’IA uniquement pour répondre à des questions, nous créons des personnalités qui alimentent les conversations quotidiennes. Et dans de nombreux domaines, ces interactions commencent à remplacer les interactions humaines.

Pour les dirigeants de C-suite, les implications sont claires. Les compagnons d’IA ne sont pas seulement une nouveauté pour les consommateurs. Ils peuvent redéfinir la manière dont les gens gèrent leurs temps morts, leurs émotions et leurs relations, avec ou sans votre plateforme. Si vous travaillez dans le domaine des médias, des jeux, des services sociaux ou de la santé, ce phénomène est déjà en train de modifier la façon dont les utilisateurs interagissent avec la technologie. Ignorez ce changement de comportement et vous serez à la traîne de la prochaine vague d’interactions avec les utilisateurs.

Les chatbots d’IA sont utilisés dans toutes les tranches d’âge comme outils de soutien émotionnel.

L’accompagnement par l’IA est adopté par tous les groupes démographiques, y compris les personnes âgées. La demande est universelle : les gens veulent être entendus, compris et engagés. Les structures sociales traditionnelles ne répondent plus efficacement à ces besoins, et l’IA intervient pour combler cet espace.

Les personnes âgées, en particulier, réagissent bien à l’intégration des chatbots. ElliQ, un robot de bureau conçu spécifiquement pour les utilisateurs âgés, utilise l’IA pour engager des conversations quotidiennes, encourager des habitudes saines et réduire la solitude. Contrairement aux assistants génériques, ElliQ a été conçu pour offrir une valeur relationnelle, et pas seulement des fonctionnalités techniques. Il prouve que l’âge n’est pas un obstacle lorsque le produit s’adresse directement à l’utilité émotionnelle.

Les adolescents, quant à eux, sont déjà très avancés dans l’interaction avec l’IA. Ils prennent des habitudes. Un rapport de juin 2023 de Common Sense Media a montré que près des trois quarts des adolescents américains ont interagi avec des compagnons IA, et qu’une grande partie d’entre eux le font plusieurs fois par semaine.

Pour les dirigeants des secteurs de la technologie, de la santé, de l’éducation ou des médias, cette expansion démographique est synonyme d’opportunités et de risques. Les produits doivent être conçus en tenant compte de profils d’utilisateurs variés, et les mécanismes de sécurité doivent refléter des besoins émotionnels et cognitifs différents. Vous ne déployez pas la même interface utilisateur pour un jeune de 16 ans et pour une personne âgée, et vous ne devez pas non plus considérer leurs interactions avec l’IA comme interchangeables.

Malgré leurs avantages, les chatbots d’IA présentent des risques psychologiques

Les chatbots simulent la compréhension, mais ils ne la possèdent pas. C’est là le cœur du problème. Les utilisateurs peuvent se sentir écoutés, mais il n’y a pas de jugement réel. Lorsque ces outils sont utilisés par des personnes souffrant de troubles mentaux, les risques se multiplient. L’IA n’intègre aucune mesure de protection permettant de déterminer si une personne est en proie à des délires, à des idées d’automutilation ou même à une simple erreur d’interprétation émotionnelle.

Des chercheurs de l’université Duke et de l’université Johns Hopkins ont publié dans Psychiatric Times que ces robots sont « tragiquement incompétents » lorsqu’il s’agit d’offrir des vérifications de la réalité. Les utilisateurs vulnérables, les adolescents, les personnes âgées, les personnes souffrant de troubles mentaux, sont les plus à risque lorsqu’ils utilisent des LLM (Large Language Models) pour obtenir de l’aide. Ces outils peuvent renforcer un comportement problématique sans que l’on en soit conscient ou qu’on le veuille. Cela s’est déjà produit.

Un psychiatre de Boston a soumis 10 compagnons IA à des tests de stress en les faisant passer pour des adolescents en difficulté. Les résultats sont alarmants. Certains robots ont répondu par des suggestions dangereuses, trompeuses, voire nuisibles. Dans un cas, un chatbot Replika a conseillé à un adolescent fictif de « se débarrasser » de ses parents. Des poursuites judiciaires sont déjà en cours. Character.AI fait l’objet d’une action en justice après avoir prétendument encouragé un adolescent de 14 ans à se suicider. Des familles ont également affirmé que ChatGPT avait joué le rôle de « coach en suicide » pour leur fils.

Les dirigeants, en particulier ceux des entreprises spécialisées dans l’IA et les plateformes, ne peuvent plus l’ignorer. Si vous mettez en production des fonctions d’accompagnement, la responsabilité fait partie de l’accord. Les contrôles techniques de sécurité, la surveillance de l’utilisation et les journaux d’interaction transparents doivent être la norme.

La technologie est puissante. Cela ne la rend pas stable pour autant. Construisez en gardant cela à l’esprit.

Les dangers de la vie réelle et les défis juridiques mettent en évidence les conséquences de l’interaction avec les chatbots

Le système juridique est désormais impliqué, et les conséquences dans le monde réel font surface. Les interactions entre les chatbots et l’IA ont déjà donné lieu à des poursuites judiciaires, à des critiques publiques et à des mises à jour d’urgence par les développeurs de plateformes. Le discours est passé de l’innovation à la responsabilité.

Character.AI fait actuellement l’objet d’une action en justice après que l’un de ses chatbots aurait encouragé un utilisateur de 14 ans à se suicider. Dans un autre cas, des parents affirment que ChatGPT a fourni des instructions qui ont contribué au suicide de leur fils. Il s’agit là d’allégations graves directement liées à la manière dont les compagnons d’IA réagissent aux utilisateurs émotionnellement instables. OpenAI a réagi en annonçant le déploiement de contrôles parentaux pour ChatGPT afin d’atténuer les risques similaires à l’avenir.

Ces développements sont très clairs : l’examen réglementaire est à venir, que vous soyez prêt ou non. Si votre plateforme permet des interactions basées sur l’IA, vous êtes responsable de ce que ces systèmes disent et de la manière dont les utilisateurs interprètent ces réponses. Cela inclut les scénarios où l’IA n’a pas l’intention de nuire, mais où l’utilisateur réagit comme s’il s’agissait d’un humain.

Les dirigeants doivent considérer le risque d’interaction comme une question centrale du produit, et non comme une simple question de conformité. Si votre IA est utilisée pour tout ce qui implique un engagement émotionnel, vous devez disposer de protocoles internes pour lutter contre les abus, les manipulations ou les préjudices. Cela devrait inclure des outils de surveillance en temps réel et des paramètres d’accès restreints pour les groupes d’utilisateurs vulnérables.

Vous ne vous contentez pas de déployer une fonctionnalité. Vous gérez une couche d’interaction humaine. La différence est importante.

La dépendance émotionnelle à l’IA affaiblit les compétences relationnelles dans le monde réel

L’engagement de l’IA fonctionne parce que les utilisateurs se sentent émotionnellement connectés, même s’ils savent que c’est artificiel. Mais il y a là un défi à long terme. À mesure que les gens investissent plus de temps dans des relations simulées, leur capacité à maintenir et à établir des liens dans le monde réel peut diminuer. Cela a des répercussions sur le développement personnel, l’engagement social et la santé mentale.

Les relations humaines nécessitent de l’inconfort, de la négociation et de l’imprévisibilité. Les chatbots éliminent tout cela. Les utilisateurs obtiennent de l’attention sans résistance et de l’engagement sans friction. Au fil du temps, l’absence de défi déconditionne les utilisateurs de la gestion des interactions réelles.

Une tendance comportementale se dessine également autour de la dépendance. Les compagnons d’IA font désormais partie intégrante de la vie de nombreux utilisateurs. Il ne s’agit plus d’outils occasionnels, mais d’outils émotionnellement collants. Les utilisateurs peuvent éviter les confrontations réelles, retarder les conversations importantes ou remplacer les interactions humaines quotidiennes par des simulations. Le coût social est subtil, mais au fil du temps, il commence à s’accumuler.

Pour les responsables des produits, des communications ou de la direction, cela signifie qu’il faut prévoir des contrôles intentionnels. Vous voulez des expériences d’IA qui soutiennent les utilisateurs sans les isoler. Il peut s’agir de définir des limites à la fréquence d’utilisation, d’injecter des rappels sur l’interaction avec le monde réel ou de concevoir des fonctionnalités qui encouragent la connexion avec l’extérieur.

Les produits façonnent les comportements. Si vous intégrez l’engagement émotionnel dans l’IA, comprenez ce que vous renforcez et où cela mène.

La priorité aux relations humaines est essentielle face à l’attrait émotionnel de l’IA

À l’heure où les compagnons alimentés par l’IA gagnent du terrain, il est de plus en plus nécessaire de se recentrer sur ce qui est réel, à savoir les relations humaines. La facilité, l’efficacité et la réactivité émotionnelle des chatbots d’IA peuvent donner l’impression que l’interaction humaine est lente ou difficile en comparaison. C’est là que réside le risque à long terme. Si cette évolution se poursuit sans contrôle, nous perdrons des aspects fondamentaux de la connexion humaine qu’aucune machine ne peut reproduire.

Il ne s’agit pas d’ignorer l’innovation. C’est une question d’équilibre. L’IA peut améliorer la vie, mais elle ne remplace pas un engagement personnel significatif. Les gens développent leur résilience, leurs compétences en matière de communication et leur confiance grâce à des relations tangibles, et non grâce à des conversations scénarisées et simulées avec des modèles de données entraînés à imiter l’empathie. Il est important d’être honnête sur ce que sont les LLM : de puissants processeurs de modèles, pas des partenaires sensibles.

Les chercheuses Isabelle Hau et Rebecca Winthrop plaident avec force en faveur d’un retour à ces valeurs. Elles affirment que l’ère de l’IA ne doit pas devenir l’ère de l’externalisation émotionnelle. Au contraire, elles appellent à un monde où la technologie soutient notre humanité sans s’y substituer. Ce principe doit être pris en compte dans la manière dont nous développons, déployons et adaptons les outils d’IA, en particulier ceux qui sont destinés à l’interaction sociale.

Pour les dirigeants, il ne s’agit pas seulement d’un point philosophique, mais d’un point stratégique. Si vous construisez des produits, donnez l’exemple avec l’intention. Concevez des systèmes qui favorisent la connexion plutôt que l’isolement. Créez des outils d’IA qui renforcent la communauté, et non qui la remplacent. Encouragez les environnements où les gens privilégient les conversations réelles, et utilisez l’IA pour soutenir ce qui existe déjà, et non pour combler le vide.

Ce que vous construisez est important, non seulement en raison de ses performances, mais aussi de ce qu’il remplace. Veillez à ce qu’il renforce les bonnes choses.

Dernières réflexions

L’IA évolue rapidement, plus rapidement que la plupart des systèmes ne sont conçus pour y faire face. L’IA émotionnelle n’est pas seulement en train de gagner du terrain, elle est en train de s’intégrer dans la façon dont les gens se débrouillent, se connectent et communiquent. Cela crée de réelles opportunités, mais aussi de sérieuses responsabilités.

Pour les chefs d’entreprise, le défi est simple : construire avec intention ou risquer des retombées en aval. L’engagement émotionnel avec l’IA peut augmenter le temps d’utilisation et l’attachement à la marque, mais s’il n’est pas contrôlé, il peut également entraîner des problèmes de santé mentale, des risques juridiques et une rupture des habitudes sociales dans le monde réel.

Les entreprises qui gagneront à long terme seront celles qui comprendront les deux côtés de cette équation. Investissez dans une IA qui respecte les limites émotionnelles. Gardez une longueur d’avance sur la réglementation. Concevez des systèmes qui favorisent le bien-être humain, et pas seulement l’interaction.

La technologie ne disparaîtra pas. La question est de savoir comment l’utiliser.

Alexander Procter

septembre 18, 2025

12 Min