Mgr Ivan Jurkovic © RV

Mgr Ivan Jurkovic © RV

ONU : Systèmes d’armes létaux autonomes, prudence et prévention

Print Friendly, PDF & Email

Mgr Jurkovic souligne le caractère éthique de l’usage de ces armes

Share this Entry
Print Friendly, PDF & Email

Mgr Jurkovic prône « une approche prudente et préventive en ce qui concerne les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes (SALA) ». Face au risque de « prolifération », il faut des « actions préventives au niveau international », insiste-t-il.
Mgr Ivan Jurkovič, observateur permanent du Saint-Siège auprès des Nations Unies à Genève, est intervenu au Groupe d’experts gouvernementaux sur les systèmes d’armes létaux autonomes de 2017 (SALA), le 13 novembre 2017.
« Les décisions juridiques et éthiques nécessitent souvent une interprétation des règles afin de sauver l’esprit des règles elles-mêmes », souligne encore Mgr Jurkovic qui fait observer qu’ « une machine ne peut jamais être capable d’effectuer de telles tâches ».
Voici notre traduction du discours en anglais prononcé par Mgr Jurkovic.
HG
 
Monsieur le Président,
La Délégation du Saint-Siège aimerait exprimer sa satisfaction pour l’excellent travail préparatoire que vous avez entrepris pour préparer le terrain en vue de cette importante réunion. Nous attendons avec impatience des discussions substantielles sous votre direction au cours de cette semaine et nous espérons qu’une compréhension commune des aspects éthiques et juridiques sous-jacents impliqués peut être établie.
Comme le rappelle le pape François, les progrès de la science et de la technologie, depuis les appareils domestiques utiles jusqu’aux grands systèmes de transport – « produits merveilleux d’une créativité humaine donnée par Dieu » – lorsqu’ils ont été destinés à vraiment aider les personnes à vivre avec plus de dignité et moins de souffrance, ont vraiment contribué à améliorer la qualité de la vie humaine (1).
Pourtant, une telle prouesse technologique a inévitablement un impact sur les armes et sur la nature des conflits. Une réalité frappante, particulièrement évidente dans le domaine de l’armement, est que de telles avancées rapides ont souvent devancé l’évolution réfléchie de la responsabilité humaine, des valeurs, de la conscience et du droit international humanitaire. L’expérience historique des régulations ou des interdictions de certaines armes illustre le mieux cette réalité. Tragiquement, les cadres juridiques internationaux sont arrivés trop tard et seulement après de graves tragédies humaines.
Monsieur le Président,
Si l’on n’adopte pas une approche prudente et préventive en ce qui concerne les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes (SALA), nous n’échapperons peut-être pas à cette même tendance irrationnelle au retard. La conduite des opérations militaires est une affaire sérieuse. Toute intervention armée doit être soigneusement examinée et doit à tout moment vérifier sa légitimité, sa légalité et sa conformité avec ses objectifs, qui doivent également être légitimes sur les plans éthique et juridique. Les risques sont beaucoup trop nombreux et les conséquences trop profondes et d’une trop grande portée pour être ignorées. S’il vous plaît, permettez-moi de donner davantage de détails sur certains d’entre eux pour le bénéfice de notre discussion :
1) Un système autonome laisse nécessairement place à une certaine imprévisibilité des actions. Ceci est particulièrement grave lorsque les SALA peuvent avoir des capacités d’auto-apprentissage ou d’auto-programmation, c’est-à-dire qu’ils peuvent à un moment donné effectuer des actions imprévues, échapper à la zone d’évolution prédite et contredire l’objectif fixé par un agent humain responsable. Une telle imprévisibilité entraîne intrinsèquement l’impossibilité de satisfaire aux exigences du DIH en permanence, car cette imprévisibilité pourrait, par exemple, « dévier » vers un comportement visant les civils afin de maximiser l’intérêt militaire, en violation directe du principe de distinction. De plus, le respect et l’application des lois ou des principes requièrent une compréhension et un jugement opportuns de situations particulières qui impliquent d’aller bien au-delà des algorithmes. Les décisions juridiques et éthiques nécessitent souvent une interprétation des règles afin de sauver l’esprit des règles elles-mêmes. Une machine ne peut jamais être capable d’effectuer de telles tâches.
2) Le risque de dissimuler la véritable responsabilité et le manque de responsabilité. Dans l’utilisation des SALA, il y a un certain degré d’hypocrisie : on a l’intention de provoquer des effets ou des dommages létaux sans donner l’impression d’être personnellement engagé. Le robot autonome crée un véritable « écran technologique » qui peut supprimer la cause et l’effet d’un acte de guerre. En cas de dommages collatéraux, il sera facile de blâmer un dysfonctionnement de la machine et d’essayer de diminuer la responsabilité de l’autorité responsable. La disparition ou la dissimulation de l’agent humain est problématique non seulement du point de vue de l’éthique de la responsabilité, mais aussi du point de vue de la fondation de la loi. À cet égard, il serait dangereux d’envisager une «personnalité électronique» pour le robot, qu’il soit civil ou militaire, ou de lui donner un statut légal en tant que personne humaine.
Une machine n’est qu’un ensemble complexe de circuits et ce système matériel ne peut en aucun cas devenir un agent réellement responsable. En effet, pour une machine, une personne humaine n’est qu’une donnée, un ensemble de nombres parmi d’autres. Il est très important de ne jamais perdre de vue la différence entre le système (un objet) et la personne humaine (le sujet). « Pour une personne physique, la source de sa personnalité juridique, qui implique des droits et des devoirs, découle de son existence en tant que personne humaine. La responsabilité ancrée dans la personnalité juridique ne s’exerce qu’en présence d’une certaine capacité de liberté. La liberté est plus que l’autonomie » (2).
3) Le risque de prolifération et une nouvelle course aux armements. En l’absence d’actions préventives au niveau international, l’intérêt militaire immédiat des SALA risque de stimuler leur développement. En effet, comme dans le cas de la dissuasion nucléaire, une spirale vicieuse de la course aux armements risque de se produire à long terme, ce qui entraînerait une instabilité dangereuse au niveau mondial. Des informations sur la technologie des robots sont facilement disponibles et la mise en œuvre de cette technologie est de plus en plus à la portée de nombreuses personnes. Elle est donc susceptible de proliférer et d’évoluer rapidement, avec le risque que des armes tombent entre les mains d’acteurs non étatiques irresponsables. De plus, on ne peut qu’imaginer combien il serait plus facile de justifier au niveau domestique la perte d’un robot plutôt que d’un soldat.
Monsieur le Président,
Ma délégation souhaite souligner le fait que la prudence dans la recherche et le développement de SALA ne signifie pas s’opposer à la promotion de la recherche pour des applications scientifiques et technologiques dans le domaine civil. Cependant, soutenir que, étant donné le caractère intrinsèque de l’intelligence artificielle à double usage, une interdiction des SALA entraverait le développement et l’utilisation de la technologie robotique à des fins civiles, est en contradiction avec les exemples réussis de coopération internationale et d’échanges scientifiques. et des informations techniques, par exemple, dans le cadre de la Convention sur les armes chimiques et de la Convention sur les armes biologiques.
En conclusion, il faut alors veiller à développer une grande conscience de  la responsabilité chez ceux qui développent des technologies robotiques de plus en plus autonomes. « Nous devons nous convaincre de la priorité de l’éthique sur la technologie, de la primauté de la personne sur les choses ». (3) Dans ce contexte, les discussions sur les SALA ne peuvent être détachées des fondements humanitaires et éthiques. Par conséquent, le dialogue entre théologiens, éthiciens, scientifiques, ingénieurs et technologues devient non seulement une entreprise intéressante, mais aussi une mission commune et partagée dans l’intérêt de l’humanité.
Ma délégation espère que cette profonde attention accordée à la personne humaine et à sa dignité inhérente – le fondement même de tout ordre juridique – pourra aboutir à une compréhension commune des complexités multiples du droit et à la mise en place d’un cadre juridique et éthique pour étayer nos discussions concernant l’évaluation des technologies militaires émergentes.
La sécurité internationale et la paix sont mieux assurées par la promotion d’une culture du dialogue et de la coopération, et non par une course aux armements. Un monde dans lequel on laisse des machines autonomes gérer, de manière rigide ou aléatoire, des questions fondamentales liées à la vie des êtres humains et des nations, nous conduirait imperceptiblement à un affaiblissement des liens qui sous-tendent la possibilité d’une fraternité vraie et durable. Pour limiter l’inhumanité de la guerre, dans la mesure du possible, il est important de préserver, au cœur des tragédies des conflits armés, le rôle crucial d’agents humains conscients et responsables. En particulier, dans la dynamique de la réconciliation et du retour à la paix, seule la personne humaine est et sera toujours le sujet capable de pardonner. L’inventivité et l’originalité du pardon ne peuvent faire l’objet d’aucune formalisation, ni algorithmique ni juridique.
Je vous remercie, Monsieur le Président.
 
(1) Cf. pape François, Laudato Si ‘, par. 103 et 112.
(2) Commentaire du secrétariat de la COMECE à la recommandation du Parlement européen d’étudier la possibilité de créer un statut légal spécifique à long terme. Document disponible sur ce lien : http://www.comece.eu/dl/KrtkJKJKomMKJqx4KJK/20170425_COMECE_contribution_on_robotics_COM.pdf
(3) Saint Jean-Paul II, Discours aux scientifiques et représentants de l’Université des Nations Unies, Hiroshima (1981).
© Traduction de Zenit, Hélène Ginabat

Share this Entry

Hélène Ginabat

FAIRE UN DON

Si cet article vous a plu, vous pouvez soutenir ZENIT grâce à un don ponctuel