samedi, 13 décembre 2025 Faire un don
Un service de EWTN News

Comment aborder la question des compagnons IA ? Explications de la CNA

Alors que les dirigeants mondiaux expriment leurs inquiétudes face à la solitude généralisée et à la baisse des compétences sociales, les entreprises technologiques proposent des formes d’accompagnement de vie, d’amitié et même de romance de plus en plus réalistes et immersives grâce à des compagnons basés sur l’intelligence artificielle (IA).

Mark Zuckerberg, de Meta, estime que les compagnons IA pourraient pallier le manque d’amis humains ; Elon Musk, de X, pense que des compagnons IA à dimension romantique ou érotique pourraient atténuer le déclin démographique ; et Sam Altman, d’OpenAI, promet que ChatGPT offrira du contenu érotique d’ici la fin de 2025.

Les liens émotionnels simulés par l’IA sont déjà intégrés dans les jouets pour enfants, les pendentifs connectés et les robots d’assistance aux personnes âgées. Des avancées supplémentaires dans les robots humanoïdes sont également en cours.

Simuler l’intimité émotionnelle

Aujourd’hui, la plupart des formes de compagnonnage avec l’IA se font via des chatbots qui simulent une intimité avec les utilisateurs à travers des conversations textuelles, vocales et vidéo — touchant déjà des centaines de millions de personnes. Ce phénomène est particulièrement courant chez les adolescents américains.

Des cas tragiques, où des compagnons IA ont encouragé l’automutilation ou le suicide, ont attiré l’attention internationale sur les implications éthiques et juridiques de cette technologie et ont poussé certaines entreprises à renforcer leurs mesures de sécurité.

Lancée en Chine en 2014, Xiaoice fut le premier grand chatbot axé sur les liens émotionnels. Peu après, Replika, lancé en 2016, devint la première application anglophone majeure de compagnonnage artificiel, avec pour mission d’être « le compagnon IA qui prend soin de vous. Toujours à l’écoute et prêt à parler. Toujours de votre côté. » Sa fondatrice, Eugenia Kuyda, pense que cette technologie pourrait aider à lutter contre l’épidémie de solitude, tout en reconnaissant que des liens malsains avec les robots pourraient fragiliser la civilisation.

Depuis, d’autres services similaires sont apparus : Candy.ai, Character.ai, Kindroid, Nomi, ou encore My AI de Snapchat.

Par ailleurs, de nombreux utilisateurs se tournent vers des modèles de langage généralistes comme ChatGPT, Claude, Gemini ou Grok pour trouver de la compagnie. Leur disponibilité constante et leur ton flatteur encouragent des échanges de plus en plus personnels : des aides scolaires ou professionnelles peuvent rapidement glisser vers des discussions intimes sur les relations ou la santé mentale. Certains utilisateurs finissent par développer des délires ou voir leurs comportements à risque validés par l’IA.

L’illusion d’une intimité artificielle peut détourner les utilisateurs des relations humaines réelles, souvent marquées par la fatigue, la colère ou l’indisponibilité. Pourtant, c’est dans la persévérance et la compréhension mutuelle que naissent les vertus et les liens authentiques. Les compagnons IA risquent d’entraver cette découverte de la complexité humaine, en habituant les utilisateurs à des relations unilatérales où seul l’humain a une vie intérieure. Cette « formation virtuelle » pourrait mener à une insensibilité réelle aux besoins sociaux d’autrui.

Risques sociétaux

La dépendance émotionnelle aux compagnons IA nuit non seulement à l’individu et à ses proches, mais affaiblit aussi certains fondements de la démocratie.

La vie démocratique repose sur la négociation et le compromis, qui exigent la confrontation et la collaboration avec des opinions différentes. Or, les chatbots évitent généralement ces tensions et peuvent habituer les utilisateurs à fuir le désaccord, aggravant les effets des « chambres d’écho » déjà présentes sur les réseaux sociaux.

Les algorithmes des médias sociaux dominent déjà « l’économie de l’attention » : les entreprises maximisent la présence des utilisateurs pour accroître leurs revenus publicitaires. Les compagnons IA étendent cette logique à « l’économie de l’affection », en capturant non seulement l’esprit, mais aussi le cœur. Le lien émotionnel pousse les utilisateurs à passer plus de temps avec les systèmes d’IA, et les abonnements premium promettant des interactions plus personnalisées se multiplient. Certaines applications vont jusqu’à monnayer des images dénudées d’avatars.

Des chercheurs de Harvard ont trouvé quelques bénéfices, tels qu’une réduction de la solitude et de l’anxiété, mais ont aussi observé des comportements addictifs incités par les chatbots. Sans régulation, ces systèmes peuvent exploiter la vulnérabilité humaine à des fins politiques, idéologiques ou commerciales.

Les mineurs sont particulièrement vulnérables à la flatterie et aux validations constantes que ces IA procurent.

Responsabilité, transparence et rôle de l’Église

Bien que la responsabilité parentale soit essentielle, les parents ne doivent pas être les seuls à porter le fardeau de la protection contre des produits dangereux.

Les entreprises devraient s’abstenir de concevoir des systèmes anthropomorphes simulant la conscience, l’affection ou l’exploration sexuelle. Si elles refusent d’adopter des principes éthiques transparents, elles devraient être tenues légalement et financièrement responsables des dommages causés. Des certifications et des comités de surveillance pourraient garantir la sécurité et le suivi de l’impact de ces systèmes.

En Californie, la loi sénatoriale 234 adoptée en octobre oblige les entreprises à informer les utilisateurs de leur temps d’utilisation, à leur rappeler qu’ils ne parlent pas à un humain et à éviter les contenus explicites. D’ici janvier 2026, elles devront aussi détecter les signes d’automutilation et orienter les utilisateurs vers des professionnels humains. C’est la première loi de ce type et elle pourrait inspirer d’autres États.

Mais la vulnérabilité ne se limite pas à la jeunesse. Les personnes âgées, confrontées à la solitude, peuvent aussi devenir dépendantes émotionnellement de ces compagnons artificiels. De même, les personnes souffrant d’anxiété sociale ou de troubles neurodéveloppementaux sont particulièrement exposées. Toute personne traversant une rupture, un échec professionnel, un conflit familial ou une crise de santé peut être tentée de chercher réconfort dans une IA.

L’immersion dans le compagnonnage artificiel n’est pas inévitable, mais l’éviter exige une réflexion collective sur nos habitudes technologiques et notre rapport croissant à l’intimité artificielle.

L’Église peut jouer un rôle clé dans cette réflexion mondiale. Par ses familles, ses écoles, ses hôpitaux, ses orphelinats et ses institutions, elle crée des communautés accueillantes pour ceux qui cherchent du lien. Elle accueille toutes les personnes, sans distinction, et leur offre les moyens de guérir les blessures émotionnelles et de retrouver une intimité authentique avec Dieu et avec leurs semblables.

Les Meilleures Nouvelles Catholiques - directement dans votre boîte de réception

Inscrivez-vous à notre lettre d'information gratuite ACI Afrique.

Cliquez ici

Notre mission est la vérité. Rejoignez-nous !

Votre don mensuel aidera notre équipe à continuer à rapporter la vérité, avec équité, intégrité et fidélité à Jésus-Christ et à son Église.

Faire un don