Conférence de presse, Intelligence artificielle © Deborah C. Lubov / ZENIT

Conférence de presse, Intelligence artificielle © Deborah C. Lubov / ZENIT

Intelligence artificielle : « Valeurs humaines vs valeurs numériques », par le p. Paolo Benanti

Print Friendly, PDF & Email

Plaidoyer pour une «algor-éthique»

Share this Entry
Print Friendly, PDF & Email

« Lorsqu’il effectue des choix, explique le p. Paolo Benanti, l’être humain connaît une qualification profonde et radicale de ses actions : le bien et le mal. L’homme découvre avec sa propre liberté un sentiment de responsabilité que notre tradition occidentale a appelé éthique. L’éthique, caractéristique purement humaine, nous rend uniques et se fonde sur les valeurs. La machine aussi choisit sur des valeurs – mais ce sont les valeurs numériques des données. »

Le p. Paolo Benanti, T.O.R., académicien de l’Académie pontificale pour la Vie, est intervenu à la conférence de presse, ce mardi 25 février 2020, pour présenter l’Atelier et l’Assemblée de l’Académie pontificale pour la Vie sur le thème « Le “bon” algorithme ? Intelligence artificielle : Éthique, droit, santé », qui se tiendra dans la Nouvelle Salle du Synode du Vatican les 26 et 27 février prochains. Sont aussi intervenus Mgr Vincenzo Paglia, président de l’Académie et Maria Chiara Carrozza, professeur ordinaire de bio-ingéniérie industrielle à l’École supérieure Sant’Anna de Pise.

« L’éthique a besoin de contaminer l’informatique », affirme l’expert franciscain, qui appelle de ses voeux une « algor-éthique, à savoir un mode qui permette de calculer les évaluations du bien et du mal. Seulement ainsi nous pourrons créer des machines qui peuvent se faire des instruments d’humanisation du monde ».

« Nous devons codifier des principes et des normes éthiques en un langage compréhensible et utilisable par les machines. Pour que la révolution des IA soit une révolution qui conduise à un authentique développement, il est temps de penser une algor-éthique ».

Voici notre traduction de l’intervention du p. Paolo Benanti, faite en italien

HG

Intervention du p. Paolo Benanti, T.O.R.

Aujourd’hui, nous nous trouvons face à une quatrième révolution industrielle liée à la diffusion envahissante d’une nouvelle forme de technologie : l’intelligence artificielle, ou IA. Comme l’électricité et l’électronique, l’IA ne sert pas à faire quelque chose de spécifique ; elle est plutôt destinée à changer la manière dont nous ferons tout.

Comment est-ce possible ? Ces dernières années, grâce à des ordinateurs de plus en plus puissants, une énorme capacité de calcul, disponible à des prix de plus en plus bas, a été générée. Parallèlement, nous avons commencé à amasser une quantité de données qui ne cesse d’augmenter à des rythmes vertigineux : au cours des deux dernières années, 90% des données jamais générées dans toute l’histoire de l’homme ont été créées. Ces deux facteurs ont permis de faire fonctionner certaines familles d’algorithmes qui donnent lieu au monde complexe des IA – un monde sur lequel les scientifiques réfléchissaient, au moins théoriquement, depuis les années soixante.

Qu’est-ce que tout cela va changer ? La première et la seconde révolutions industrielles (respectivement avec le charbon et la vapeur, et avec l’électricité et le pétrole) nous ont fourni des formes d’énergie alternatives aux muscles ; la troisième a produit des machines automatiques, bouleversant le concept de chaîne de montage et d’ouvrier ; celle qui s’annonce risque d’automatiser non pas la force, non pas le travail mais notre cognition.

Les systèmes d’IA sont capables de s’adapter et de se conformer aux conditions changeantes dans lesquelles elles agissent, simulant ce que ferait une personne. En d’autres termes, aujourd’hui, la machine peut souvent remplacer l’homme pour prendre des décisions et faire des choix. Si les autres révolutions industrielles concernaient les cols bleus, celle qui est en train de se réaliser concerne surtout les cols blancs. Les IA ne conduiront pas à l’apocalypse, mais elles peuvent conduire à la fin de la classe moyenne.

Aujourd’hui des algorithmes d’apprentissage automatique et d’autres formes d’IA réussissent à faire des diagnostics médicaux avec un pourcentage d’exactitude qui dépasse, dans certains cas, celle d’un médecin moyen (au moins dans certaines disciplines ou avec certaines pathologies) ; elles peuvent prévoir qui pourra rembourser un emprunt de manière beaucoup plus précise qu’un directeur de banque ; selon certains développeurs, elles peuvent comprendre mieux que nous s’il existe une affinité affective avec la personne qui se tient devant nous. Les IA acquièrent de plus en plus de capacité prédictive.

Toutefois, face à une telle précision, elles ne possèdent pas la même capacité explicative : les algorithmes les plus efficaces sont ceux que nous comprenons le moins, devant lesquels nous sommes le moins en mesure de dire pourquoi la machine indique tel résultat.

À ce niveau, une grande question se pose. Au moment où la machine se substitue à l’homme pour prendre des décisions, quelle sorte de certitudes devrions-nous avoir pour laisser la machine choisir qui doit être soigné et comment ? Sur quelle base devrions-nous permettre à une machine de désigner qui d’entre nous est digne de confiance et qui ne l’est pas ? Et qu’en est-il de l’amour, cette quête unique qui a ému des générations de femmes et d’hommes avant nous ?

Si, avec un ordinateur, nous pouvons transformer les problèmes humains en statistiques, graphiques et équations, nous créons l’illusion que ces problèmes peuvent être résolus avec les ordinateurs. Ce n’est pas le cas.

De fait, l’usage des ordinateurs et des technologies informatiques dans le développement technologique met en évidence un défi linguistique qui se situe à la frontière entre l’homme et la machine. Dans le processus d’interrogation réciproque entre l’homme et la machine, des projections et des échanges se produisent, jusqu’alors inconnus : la machine s’humanise tandis que l’homme se « machinise ».

Que veut dire alors humaniser la technique et ne pas « machiniser » l’homme ?

Lorsqu’il effectue des choix, l’être humain connaît une qualification profonde et radicale de ses actions : le bien et le mal. L’homme découvre avec sa propre liberté un sentiment de responsabilité que notre tradition occidentale a appelé éthique. L’éthique, caractéristique purement humaine, nous rend uniques et se fonde sur les valeurs. La machine aussi choisit sur des valeurs – mais ce sont les valeurs numériques des données.

Si nous voulons que la machine soit un soutien pour l’homme et le bien commun, sans jamais se substituer à l’être humain, alors les algorithmes doivent inclure des valeurs éthiques et pas seulement numériques.

En substance, nous avons besoin de pouvoir indiquer les valeurs éthiques à travers les valeurs numériques qui alimentent l’algorithme.

L’éthique a besoin de contaminer l’informatique. Nous avons besoin d’une algor-éthique, à savoir un mode qui permette de calculer les évaluations du bien et du mal. Seulement ainsi nous pourrons créer des machines qui peuvent se faire des instruments d’humanisation du monde. Nous devons codifier des principes et des normes éthiques en un langage compréhensible et utilisable par les machines. Pour que la révolution des IA soit une révolution qui conduise à un authentique développement, il est temps de penser une algor-éthique.

Le 28 février, le Roma Call (l’Appel de Rome) marquera un pas important dans cette direction : deux des plus grands producteurs d’IA, IBM et Microsoft, signeront cet Appel avec l’Académie pontificale pour la Vie afin que certains principes éthiques soient présents dans les produits d’IA qu’ils développent, vendent et appliquent. L’Appel, une structure ouverte, veut être le début d’un mouvement qui rassemble les hommes de bonne volonté afin de coopérer pour que des choix éthiques, des paradigmes juridiques et des actions éducatives adéquates permettent à la société civile d’affronter cette nouvelle époque.

© Traduction de Zenit, Hélène Ginabat

Share this Entry

Hélène Ginabat

FAIRE UN DON

Si cet article vous a plu, vous pouvez soutenir ZENIT grâce à un don ponctuel