Audience générale, 21 janvier 2026 © Vatican Media 

Audience générale, 21 janvier 2026 © Vatican Media 

Léon XIV : « Préserver les voix et les visages humains »

Message du Saint-Père pour la 60e Journée Mondiale des Communications Sociales 2026

Share this Entry

 

À l’occasion de la 60ᵉ Journée mondiale des communications sociales, le Pape Léon XIV invite à un discernement profond sur l’usage des technologies numériques et de l’intelligence artificielle, afin que le progrès technique ne fasse jamais taire la voix humaine ni disparaître le visage de la personne

 

Chers frères et sœurs,

Le visage et la voix sont des traits uniques et distinctifs de chaque personne ; ils manifestent son identité unique et sont l’élément constitutif de toute rencontre. Les anciens le savaient bien. Ainsi, pour définir la personne humaine, les Grecs anciens utilisaient le mot « visage » (prósōpon), qui, étymologiquement, désigne ce qui est visible, le lieu de la présence et de la relation. Le terme latin persona (de per-sonare) inclut quant à lui le son ; pas n’importe quel son, mais la voix unique de quelqu’un.

Le visage et la voix sont sacrés. Ils nous ont été donnés par Dieu, qui nous a créés à son image et à sa ressemblance, nous appelant à la vie par la Parole qu’il nous a lui-même adressée. Parole qui a d’abord résonné à travers les siècles dans les voix des prophètes, puis s’est incarnée dans la plénitude des temps. Nous avons pu entendre et voir directement cette Parole — cette communication que Dieu fait de lui-même — (cf. 1 Jn 1, 1-3), car elle s’est révélée dans la voix et le visage de Jésus, Fils de Dieu.

Dès le moment de sa création, Dieu a voulu l’homme comme son interlocuteur et, comme le dit saint Grégoire de Nysse, [1]il a imprimé sur son visage un reflet de l’amour divin, afin qu’il puisse vivre pleinement son humanité à travers l’amour. Préserver les visages et les voix humaines signifie donc conserver ce sceau, ce reflet indélébile de l’amour de Dieu. Nous ne sommes pas une espèce faite d’algorithmes biochimiques prédéfinis. Chacun de nous a une vocation irremplaçable et inimitable qui naît de la vie et se manifeste précisément dans la communication avec les autres.

La technologie numérique, lorsqu’elle n’est pas utilisée avec soin, risque de modifier radicalement certains des piliers fondamentaux de la civilisation humaine, que nous tenons parfois pour acquis. En simulant les voix et les visages humains, la sagesse et la connaissance, la conscience et la responsabilité, l’empathie et l’amitié, les systèmes connus sous le nom d’intelligence artificielle interfèrent non seulement dans les écosystèmes informationnels, mais envahissent également le niveau le plus profond de la communication, celui de la relation entre les personnes.

Le défi n’est donc pas technologique, mais anthropologique. Préserver les visages et les voix signifie, en fin de compte, prendre soin de nous-mêmes. Accueillir avec courage, détermination et discernement les opportunités offertes par la technologie numérique et l’intelligence artificielle ne signifie pas nous cacher les points critiques, les opacités, les risques.

Ne pas renoncer à notre propre pensée.

Depuis longtemps, de nombreuses preuves montrent que les algorithmes conçus pour maximiser l’implication dans les réseaux sociaux — rentable pour les plateformes — récompensent les émotions rapides et pénalisent en revanche les expressions humaines qui nécessitent du temps, comme l’effort de compréhension et la réflexion. En enfermant des groupes de personnes dans des bulles de consensus facile et d’indignation facile, ces algorithmes affaiblissent la capacité d’écoute et de pensée critique et augmentent la polarisation sociale.

À cela s’ajoute une confiance naïve et acritique dans l’intelligence artificielle comme « amie » omnisciente, dispensatrice de toutes les informations, archive de toutes les mémoires, « oracle » de tous les conseils. Tout cela peut encore davantage affaiblir notre capacité à penser de manière analytique et créative, à comprendre les significations, à distinguer la syntaxe de la sémantique.

Si l’IA peut apporter un soutien et une aide dans la gestion des tâches de communication, le fait d’éviter l’effort de réflexion par nous-mêmes et de nous contenter d’une compilation statistique artificielle risque, à long terme, d’éroder nos capacités cognitives, émotionnelles et communicatives.

Ces dernières années, les systèmes d’intelligence artificielle prennent de plus en plus le contrôle de la production de textes, de musique et de vidéos. Une grande partie de l’industrie créative humaine risque ainsi d’être démantelée et remplacée par le label « Powered by AI », transformant les individus en simples consommateurs passifs de pensées non réfléchies, de produits anonymes, sans auteur, sans amour. Tandis que les chefs-d’œuvre du génie humain dans le domaine de la musique, de l’art et de la littérature sont réduits à un simple terrain d’entraînement pour les machines.

La question qui nous importe, cependant, n’est pas ce que la machine accomplit ou accomplira, mais ce que nous pouvons ou pourrons faire, en grandissant en humanité et en connaissance, grâce à une utilisation judicieuse des instruments puissants qui sont à notre service. Depuis toujours, l’homme a été tenté de s’approprier le fruit de la connaissance sans l’effort que supposent l’engagement, la recherche et la responsabilité personnelle. Cependant, renoncer au processus créatif et céder aux machines nos fonctions mentales et notre imagination signifie enterrer les talents que nous avons reçus pour grandir en tant que personnes en relation avec Dieu et avec les autres. Cela signifie cacher notre visage et faire taire notre voix.

Être ou faire semblant : simulation des relations et de la réalité

À mesure que nous parcourons nos flux d’informations (feeds), il devient de plus en plus difficile de savoir si nous interagissons avec d’autres êtres humains ou avec des « bots » ou des « influenceurs » virtuels. Les interventions opaques de ces agents automatisés influencent les débats publics et les décisions des individus. En particulier, les chatbots basés sur de grands modèles linguistiques (LLM) s’avèrent étonnamment efficaces pour persuader de manière cachée, grâce à une optimisation continue de l’interaction personnalisée. La structure dialogique et adaptative, mimétique, de ces modèles linguistiques est capable d’imiter les sentiments humains et de simuler ainsi une relation. Cette anthropomorphisation, qui peut même être amusante, est en même temps trompeuse, surtout pour les personnes les plus vulnérables. Car les chatbots excessivement « affectueux », en plus d’être toujours présents et disponibles, peuvent devenir les architectes cachés de nos états émotionnels et, de cette manière, envahir et occuper la sphère intime des individus.

La technologie qui exploite notre besoin de relations peut non seulement avoir des conséquences douloureuses sur le destin des personnes, mais aussi nuire au tissu social, culturel et politique des sociétés. Cela se produit lorsque nous remplaçons les relations avec les autres par des relations avec des IA entraînées à cataloguer nos pensées et, par conséquent, à construire autour de nous un monde de miroirs, où tout est fait « à notre image et à notre ressemblance ». Nous nous privons ainsi de la possibilité de rencontrer l’autre, qui est toujours différent de nous et avec lequel nous pouvons et devons apprendre à interagir. Sans l’acceptation de l’altérité, il ne peut y avoir ni relation ni amitié.

Un autre défi majeur posé par ces systèmes émergents est celui du parti pris (en anglais : bias), qui conduit à acquérir et à transmettre une perception altérée de la réalité. Les modèles d’IA sont façonnés par la vision du monde de ceux qui les construisent et, à leur tour, peuvent imposer des modes de pensée qui reproduisent les stéréotypes et les préjugés présents dans les données dont ils se nourrissent. Le manque de transparence dans la conception des algorithmes, associé à une représentation sociale inadéquate des données, tend à nous maintenir prisonniers de réseaux qui manipulent nos pensées et perpétuent et approfondissent les inégalités et les injustices sociales existantes.

Le risque est grand. Le pouvoir de la simulation est tel que l’intelligence artificielle peut également nous tromper en fabriquant des « réalités » parallèles, en s’appropriant nos visages et nos voix. Nous sommes plongés dans une multidimensionnalité où il est de plus en plus difficile de distinguer la réalité de la fiction.

À cela s’ajoute le problème du manque de précision. Les systèmes qui font passer une probabilité statistique pour une connaissance nous offrent en réalité, au mieux, des approximations de la vérité, qui sont parfois de véritables « hallucinations ». L’absence de vérification des sources, associée à la crise du journalisme de terrain, qui implique un travail continu de collecte et de vérification des informations sur les lieux où se déroulent les événements, peut favoriser un terrain encore plus fertile pour la désinformation, provoquant un sentiment croissant de méfiance, de confusion et d’insécurité.

Une alliance possible

Derrière cette énorme force invisible qui nous concerne tous, il n’y a qu’une poignée d’entreprises, celles dont les fondateurs ont récemment été présentés comme les créateurs de la « personne de l’année 2025 », c’est-à-dire les architectes de l’intelligence artificielle. Cela soulève une préoccupation importante concernant le contrôle de l’oligopole des systèmes algorithmiques et d’intelligence artificielle capables d’orienter subtilement les comportements et même de réécrire l’histoire de l’humanité — y compris l’histoire de l’Église — souvent sans que nous nous en rendions vraiment compte.

Le défi qui nous attend n’est pas d’arrêter l’innovation numérique, mais de la guider et d’être conscients de son caractère ambivalent. Il appartient à chacun d’entre nous d’élever la voix pour défendre les êtres humains afin que ces instruments puissent réellement être intégrés par nous comme des alliés.

Cette alliance est possible, mais elle doit reposer sur trois piliers : la responsabilité, la coopération et l’éducation.

Tout d’abord, la responsabilité. Selon les fonctions, cela peut se traduire par l’honnêteté, la transparence, le courage, la capacité de vision, le devoir de partager les connaissances, le droit d’être informé. Mais, en général, personne ne peut se soustraire à sa responsabilité face à l’avenir que nous construisons.

Pour ceux qui sont à la tête des plateformes en ligne, cela signifie s’assurer que leurs propres stratégies commerciales ne sont pas guidées par le seul critère du profit maximal, mais aussi par une vision d’avenir qui tient compte du bien commun, tout comme chacun d’entre eux se soucie du bien-être de ses enfants.

Les créateurs et les programmeurs de modèles d’IA sont tenus de faire preuve de transparence et de responsabilité sociale en ce qui concerne les principes de planification et les systèmes de modération qui sont à la base de leurs algorithmes et des modèles conçus afin de favoriser le consentement éclairé des utilisateurs.

La même responsabilité est également exigée des législateurs nationaux et des organismes de réglementation supranationaux, qui sont chargés de veiller au respect de la dignité humaine. Une réglementation appropriée peut protéger les personnes contre la création de liens émotionnels avec les chatbots et contenir la diffusion de contenus faux, manipulateurs ou confus, en préservant l’intégrité de l’information face à une simulation trompeuse de celle-ci.

Les agences de presse et les médias ne peuvent pas permettre que les algorithmes visant à gagner à tout prix la bataille pour quelques secondes d’attention supplémentaires l’emportent sur la fidélité à leurs valeurs professionnelles, axées sur la recherche de la vérité. La confiance du public se gagne par la précision et la transparence, et non par la recherche de toute forme d’implication. Les contenus générés ou manipulés par l’IA doivent être clairement signalés et distingués des contenus créés par des personnes. La paternité et la propriété souveraine du travail des journalistes et autres créateurs de contenus doivent être protégées. L’information est un bien public. Un service public constructif et significatif ne repose pas sur l’opacité, mais sur la transparence des sources, l’inclusion des parties prenantes et un niveau de qualité élevé.

Nous sommes tous appelés à coopérer. Aucun secteur ne peut relever seul le défi de guider l’innovation numérique et la manière de gouverner l’IA. Il est donc nécessaire de créer des mécanismes de protection. Toutes les parties prenantes — de l’industrie technologique aux législateurs, des entreprises créatives au monde universitaire, des artistes aux journalistes et aux éducateurs — doivent s’impliquer dans la construction et la mise en œuvre d’une citoyenneté numérique consciente et responsable.

C’est là l’objectif de l’éducation : accroître nos capacités personnelles de réflexion critique ; évaluer la crédibilité des sources et les intérêts potentiels qui sous-tendent la sélection des informations qui nous parviennent ; comprendre les mécanismes psychologiques qui s’activent face à cela ; permettre à nos familles, communautés et associations d’élaborer des critères pratiques pour une culture de la communication plus saine et plus responsable.

C’est précisément pour cette raison qu’il est de plus en plus urgent d’introduire dans les systèmes éducatifs à tous les niveaux l’alphabétisation aux médias, aux moyens d’information et à l’IA, que certaines institutions civiles encouragent déjà. En tant que catholiques, nous pouvons et devons apporter notre contribution afin que les personnes, en particulier les jeunes, acquièrent la capacité de penser de manière critique et grandissent dans la liberté de l’esprit. Cette éducation devrait également être intégrée dans des initiatives plus larges d’éducation permanente, touchant également les personnes âgées et les membres marginalisés de la société, qui se sentent souvent exclus et impuissants face aux changements technologiques rapides.

L’alphabétisation dans les médias, l’information et l’IA aidera chacun à ne pas s’adapter à la dérive anthropomorphisante de ces systèmes, mais à les traiter comme des outils, à toujours utiliser une validation externe des sources – qui pourraient être imprécises ou erronées – fournies par les systèmes d’IA, à protéger sa vie privée et ses données en connaissant les paramètres de sécurité et les options de contestation. Il est important d’éduquer et de s’éduquer à l’utilisation intentionnelle de l’IA et, dans ce contexte, de prendre soin de sa propre image (photo et audio), de son propre visage et de sa propre voix, afin d’éviter qu’ils ne soient utilisés dans la création de contenus et de comportements préjudiciables tels que les escroqueries numériques, le cyberharcèlement, les deepfakes qui violent la vie privée et l’intimité des personnes sans leur consentement. Tout comme la révolution industrielle exigeait une alphabétisation de base pour que les gens puissent réagir aux nouveautés, la révolution numérique exige également une alphabétisation numérique (associée à une formation humaniste et culturelle) pour comprendre comment les algorithmes modèlent notre perception de la réalité, comment fonctionnent les préjugés de l’IA, quels sont les mécanismes qui déterminent l’apparition de certains contenus dans nos flux d’informations (feeds), quels sont les modèles économiques de l’économie de l’IA et comment ils peuvent changer.

Nous avons besoin que le visage et la voix expriment à nouveau la personne. Nous devons préserver le don de la communication comme la vérité la plus profonde de l’homme, vers laquelle orienter également toute innovation technologique.

En proposant ces réflexions, je remercie ceux qui travaillent pour les objectifs exposés ici et je bénis de tout cœur tous ceux qui œuvrent pour le bien commun avec les moyens de communication.

Vatican, le 24 janvier 2026, mémoire de saint François de Sales.

LÉON XIV PP.

___________________________

[1] « Le fait d’être créés à l’image de Dieu signifie que, dès sa création, l’homme a été marqué d’un caractère royal […]. Dieu est amour et source d’amour ; le divin Créateur a également inscrit cette caractéristique sur notre visage, afin que, par l’amour — reflet de l’amour divin —, l’être humain reconnaisse et manifeste la dignité de sa nature et sa ressemblance avec son Créateur » (cf. S. Grégoire de Nysse, La création de l’homme : PG 44, 137).

Share this Entry

Pape Léon XIV

FAIRE UN DON

Si cet article vous a plu, vous pouvez soutenir ZENIT grâce à un don ponctuel