Mgr Ivan Jurkovic © RV

Mgr Ivan Jurkovic © RV

ONU : le Saint-Siège dénonce le danger des systèmes d’armes létales autonomes

Print Friendly, PDF & Email

Leur développement rendra la guerre « encore plus inhumaine », avertit Mgr Jurkovic

Share this Entry
Print Friendly, PDF & Email

Pour Mgr Jurkovic, le développement des systèmes d’armes létales autonomes « sera en mesure de modifier irréversiblement la nature de la guerre, la rendant encore plus inhumaine » et « de remettre en question l’humanité de nos sociétés ». « Toute intervention armée, a-t-il ajouté, doit être pesée avec soin et doit à tout moment vérifier sa légitimité, sa légalité et sa conformité avec ses objectifs, qui doivent également être légitimes sur les plans éthique et juridique ».

Mgr Ivan Jurkovic, observateur permanent du Saint-Siège auprès des Nations Unies et d’autres organisations internationales, est intervenu à Genève devant le Groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes (SALA) de 2018, le 9 avril 2018.

Il a proposé le principe de « non-contradiction anthropologique » comme référence commune pour ce débat. « Toute technologie, a-t-il affirmé, y compris les armes autonomes, doit, pour être acceptable, être compatible avec la conception juste de la personne humaine, fondement même du droit et de l’éthique ». Or, a poursuivi Mgr Jurkovic, « un système d’armes autonome ne pourrait jamais être un sujet moralement responsable ».

Voici notre traduction du discours de Mgr Jurkovic.

HG

Discours prononcé par Mgr Ivan Jurkovic

Monsieur le Président,

La délégation du Saint-Siège souhaite vous remercier pour votre direction tout au long des sessions du Groupe d’experts gouvernementaux (GGE) ainsi que les membres éminents de la délégation de l’Inde. La question des systèmes d’armes létales autonomes (SALA) est à l’ordre du jour pour la cinquième année consécutive et nous attendons donc des résultats et des espoirs substantiels qu’un cadre légal et éthique consensuel pourra enfin être établi.

Le Saint-Siège reconnaît les difficultés et la résistance à prévoir et à comprendre pleinement les implications des systèmes d’armes autonomes. Une chose est certaine : le développement des SALA sera en mesure de modifier irréversiblement la nature de la guerre, la rendant encore plus inhumaine, de remettre en question l’humanité de nos sociétés et, en tout cas, d’obliger tous les États à réévaluer leurs capacités militaires.

Toute intervention armée doit être pesée avec soin et doit à tout moment vérifier sa légitimité, sa légalité et sa conformité avec ses objectifs, qui doivent également être légitimes sur les plans éthique et juridique. Confrontés aux défis d’aujourd’hui, ces tâches deviennent de plus en plus complexes et trop nuancées pour être confiées à une machine qui, par exemple, serait inefficace face à des dilemmes moraux ou à des questions soulevées par l’application du principe dit du « double effet ».

Pour cette raison, ma délégation suggère qu’il est possible et souhaitable de considérer le principe de « non-contradiction anthropologique » comme point de référence commun pour notre discussion. En d’autres termes, toute technologie, y compris les armes autonomes, doit, pour être acceptable, être compatible avec la conception juste de la personne humaine, fondement même du droit et de l’éthique.

Monsieur le Président,

La robotisation et la déshumanisation de la guerre, notamment par l’intelligence artificielle et l’apprentissage automatique des armes, soulèvent plusieurs questions et contradictions éthiques et juridiques. S’il vous plaît permettez-moi d’en présenter quelques-unes :

1) Un système d’armes autonome ne pourrait jamais être un sujet moralement responsable. La capacité humaine unique pour de jugement moral et de prise de décision éthique est plus qu’une collection complexe d’algorithmes et une telle capacité ne peut pas être remplacée par, ou programmée dans, une machine. L’application de règles ou de principes nécessite une compréhension des contextes et des situations qui vont bien au-delà des potentialités des algorithmes. Par exemple, caractériser un fait ou appliquer une loi générale à un cas particulier exige de la part du juge quelque chose de plus que l’application de la simple logique conséquente, plus que la simple manipulation de règles formelles et codifiées. À cet égard, les systèmes d’armes autonomes peuvent considérer comme normaux au sens statistique du terme et donc acceptables, les comportements interdits par le droit international ou qui, bien que non explicitement définis, sont toujours interdits par la morale et la conscience publique.

2) Un système d’armes autonome peut s’écarter des zones d’évolution ou des objectifs prescrits par l’autorité politique ou militaire responsable. Pourtant, il est nécessaire de toujours avoir une traçabilité adéquate de l’usage de la force, avec une identification précise des responsables. En fait, cette imprévisibilité irait à l’encontre du principe du « jus in bello », car cela pourrait se traduire par un comportement visant à cibler les civils afin de maximiser l’intérêt militaire, en opposition directe au principe de distinction. En outre, une telle perte ou dilution de responsabilité induit un manque total de responsabilité pour les violations à la fois du droit international humanitaire et du droit international des droits de l’homme et pourrait inciter progressivement à la guerre.

3) L’idée d’une guerre menée par des systèmes d’armes autonomes non conscients et non responsables semble dissimuler un attrait de domination qui cache le désespoir et un dangereux manque de confiance dans la personne humaine. Cette logique ignore le fait que pour une machine, une personne humaine, comme tout le reste, n’est qu’un ensemble de données interchangeables parmi d’autres. Or, c’est précisément la contradiction « inhumaine » : la délégation des pouvoirs aux systèmes autonomes nous met sur le chemin de la négation, de l’oubli et du mépris des caractéristiques essentielles propres aux personnes humaines et aux vertus guerrières.

Monsieur le Président,

La sécurité internationale et la paix sont mieux assurées par la promotion d’une culture de dialogue et de coopération, et non par une course aux armements. Le préambule de la CCAC (Convention sur certaines armes classiques, ndt) exprime clairement le désir de contribuer à « la fin de la course aux armements et à la construction de la confiance entre les États, et donc à la réalisation de l’aspiration de tous les peuples à vivre en paix ». Un monde dans lequel on laisse les systèmes autonomes gérer, rigidement ou au hasard, des questions fondamentales liées à la vie des êtres humains et des nations, nous conduirait imperceptiblement à la déshumanisation et à l’affaiblissement des liens d’une fraternité vraie et durable de la famille humaine.

Pour cette raison, s’appuyer sur le principe de précaution et adopter une attitude responsable de prévention sont de la plus haute importance dans nos efforts actuels. Ma délégation souhaite faire écho aux paroles du pape François : « Nous avons la liberté nécessaire pour limiter et diriger la technologie; nous pouvons la mettre au service d’un autre type de progrès, plus sain, plus humain, plus social, plus intégral » (Laudato Si’, 112). Traduisons ces mots dans un résultat sain et durable au sein de la CCAC !

Merci, Monsieur le Président.

© Traduction de Zenit, Hélène Ginabat

Share this Entry

Hélène Ginabat

FAIRE UN DON

Si cet article vous a plu, vous pouvez soutenir ZENIT grâce à un don ponctuel