Si un enfant demande à un assistant virtuel de type Aristol si le père Noël existe, que doit lui répondre la machine? Et, aux questions entourant l’homosexualité ou le rôle de la femme au sein de la famille, quelles réponses est-il correct de lui donner? Si une voiture autonome doit choisir entre percuter un enfant ou deux vieillards, quelle décision doit-elle prendre? Les cas de figures possibles sont infinis et, parce que la technologie est aujourd’hui partout autour de nous et qu’il existe de véritables enjeux moraux liés aux décisions programmées dans les intelligences artificielles, il importe d’y réfléchir collectivement et philosophiquement. Martin Gibert, philosophe et chercheur en éthique à l’Université de Montréal, propose une introduction à l’éthique des algorithmes avec Faire la morale aux robots, essai hautement vulgarisé d’à peine 100 pages et qui répond à la question « avec quel genre de robots souhaitons-nous coexister? ». Grâce à une plume rafraîchissante, qui ose l’humour et ne donne jamais l’impression de présenter un sujet hermétique, gageons que cet essai et les idées qu’il contient animeront bien des discussions lors de vos prochains soupers estivaux entre amis!

Par qui devrait être lu votre ouvrage, et pourquoi?
C’est un livre de philosophie qui parle d’éthique appliquée aux systèmes d’intelligence artificielle. Je dirais que c’est une introduction à l’état de l’art, avec une ou deux thèses originales. En l’écrivant, j’avais en tête mes collègues en informatique ou en philosophie, mais aussi des étudiants au collégial ou mes deux frères qui sont musiciens de jazz. J’ai visé un large public parce que ce sont des questions nouvelles et qu’il faut encourager le débat démocratique. Ce sont des enjeux moraux, mais aussi sociaux et politiques : quel genre de robots et d’algorithmes désirons-nous, pour quel genre de société?

À moins qu’on décide d’arrêter la recherche en intelligence artificielle – ce qui est peu probable à court terme –, les algorithmes et les robots vont avoir de plus en plus de conséquences sur nos vies. Ils vont nous affecter, ils vont affecter nos relations à nous-mêmes et aux autres. Dans ce contexte, la question que je pose, c’est : qu’est-ce qu’un bon robot? Qu’est-ce qu’un algorithme juste? Qu’on pense aux voitures autonomes face à des dilemmes tragiques (sacrifier un enfant ou un vieillard) ou à des assistants virtuels qui interagissent avec des humains, les enjeux moraux sont partout présents.

Et s’il n’y avait qu’un seul truc à retenir, c’est de nous méfier de notre propension au statu quo. Sachant que nous vivons déjà dans un monde très largement inégalitaire et injuste, il ne faudrait pas en rajouter en programmant les systèmes d’intelligence artificielle de manière à ce qu’ils automatisent les injustices et les inégalités. Il faut être très vigilant avec les options par défaut qu’on implémente. Bien sûr, ça n’empêche pas d’être par ailleurs optimiste. On peut très bien imaginer des robots qui, du point de vue moral, se comportent mieux que des humains.

Et c’est vrai que lorsque vous dites qu’une voiture autonome devrait se comporter comme Jésus ou Greta, on vous regarde bizarrement.

Dans votre essai, vous proposez que, pour faire un robot « moral », il faudrait se baser sur la théorie de l’éthique de la vertu, laquelle, rapidement vulgarisée, consiste à prendre en exemple les personnes considérées comme vertueuses et de programmer les algorithmes afin qu’ils réagissent, dans une certaine proportion, comme le feraient Greta Thunberg ou Jésus. Est-ce une conclusion répandue dans le milieu de la recherche sur les intelligences artificielles ou en êtes-vous le premier défenseur?
Effectivement, c’est sans doute l’aspect le plus original du livre. L’éthique de la vertu n’est habituellement pas considérée comme une option sérieuse pour programmer des robots. Et c’est vrai que lorsque vous dites qu’une voiture autonome devrait se comporter comme Jésus ou Greta, on vous regarde bizarrement. Jusqu’à présent, les philosophes ont surtout envisagé l’utilitarisme et le déontologisme pour « faire la morale » aux robots. Il faut dire que ces deux théories semblent plus faciles à formaliser et donc à traduire en algorithme.

Mon idée, c’est que l’éthique de la vertu peut, elle aussi, être applicable et qu’elle se compare avantageusement à ses rivales. Avec les progrès récents dans cette technique d’IA qu’on nomme l’apprentissage supervisé, avec le développement des big data, je montre comment des personnes vertueuses pourraient, très littéralement, faire la morale aux robots. C’est un point clé. Je soutiens également que les robots vertueux inspireront davantage confiance que leurs compères utilitaristes ou déontologistes et qu’ils seront certainement plus fiables et pratiques. Alors voilà, tout le défi du livre, c’était de présenter cet argumentaire sans être chiant.

Votre livre est la preuve – pour ceux qui en doutaient encore – que la philosophie s’inscrit concrètement dans notre quotidien : pour réfléchir à comment une voiture autonome devrait réagir si elle doit frapper, en cas d’accident inévitable, un vieillard à droite ou un enfant à gauche, la philosophie est une grande alliée. Selon vous, en quoi est-il pertinent de connaître certains concepts de base de philosophie pour être un « bon citoyen » de nos jours?
Oui, c’est très important pour saisir les enjeux. Si vous ne faites pas la différence entre ce qui est et ce qui devrait être, ou entre les robots comme patients moraux et comme agents moraux, vous ne pouvez pas juger les positions des uns et des autres. Or, c’est précisément cela, le cœur de l’éthique : évaluer des arguments, identifier lesquels sont les plus solides. Pour ce livre, j’ai beaucoup puisé dans mon expérience de prof : on apprend les distinctions de base, puis on les applique à des cas très concrets.

Cela étant dit, avec les dilemmes de voiture autonome, il se passe en outre un drôle de phénomène. Dans les cours d’éthique, on parle depuis longtemps de dilemmes tragiques où l’on doit laisser un tramway écraser X ou changer de voie mais écraser Y. Ce sont des expériences de pensée qui aident à tester nos intuitions et la cohérence de nos théories morales. Ce qui arrive avec les voitures autonomes, c’est que l’expérience de pensée devient soudainement réalité : les ingénieurs doivent prendre une décision. S’il existe une bonne réponse au dilemme de l’enfant et du vieillard, alors c’est cela qu’il faut mettre dans l’algorithme. On est vraiment dans de la philosophie appliquée.

On est vraiment dans de la philosophie appliquée.

Comment en êtes-vous arrivé à publier ce livre chez Atelier 10? En d’autres mots, quelle est la petite histoire derrière la publication de votre essai?
En janvier 2019, j’ai envoyé quelques paragraphes de présentation et un plan à Atelier 10. J’avais déjà écrit deux textes pour leur revue, Nouveau Projet : l’un sur la psychologie morale des gens de droite et de gauche, et l’autre sur le racisme sexuel dans les sites de rencontres. Je savais qu’il y avait de l’intérêt pour un essai sur l’intelligence artificielle. Ensuite, tout le défi avec la collection « Document », c’était de respecter le format très grand public, et la concision – moins de 100 pages! Vanessa Allnutt, mon éditrice, m’a beaucoup aidé à couper ce qui n’était pas absolument nécessaire et à gagner en fluidité. D’un autre côté, j’ai pu profiter d’une plus grande liberté de ton que dans des publications universitaires. Au final, je dirais que ça donne un essai sans gras, serré à l’os – même si je me suis permis quelques blagues.

Votre livre soutient notamment l’idée qu’il pourrait être périlleux de créer une « superintelligence », périlleux en ce sens que la survie de l’humanité pourrait alors être menacée. Avec toutes vos connaissances sur le sujet, dormez-vous bien? Les scientifiques et les programmeurs, voire les gouvernements, qui mettront sur pied des intelligences artificielles écouteront-ils les éthiciens tels que vous?
Quand on travaille en éthique, il ne faut pas être insomniaque. On passe son temps à affronter des dilemmes insolubles et à envisager des conséquences catastrophiques (pour mieux les éviter). Avec la notion de superintelligence, on est en plein dedans. C’est une possibilité fascinante, qui ébranle l’être humain, celui-ci se considérant depuis toujours comme l’apogée de l’évolution naturelle. Est-ce qu’une machine, une création technique pourrait « dépasser » son créateur? Et dans ce cas, comment parvenir à la contrôler? Sur ce sujet, j’ai beaucoup appris du philosophe suédois Nick Bostrom.

Pour autant, une superintelligence ne chercherait pas nécessairement à prendre le pouvoir ou à nous mettre à sa merci : ça, c’est de la projection humaine trop humaine. On peut tout à fait imaginer une superintelligence amicale, qui ferait le bien, qui serait même super bonne. Quoi qu’il en soit, tout cela est très spéculatif. Les IA actuelles ne sont pas du tout super, elles sont très fortes pour certaines tâches bien définies, mais elles demeurent incapables de faire des choses très simples, qui relèvent du sens commun. En fait, on a beaucoup plus de raisons de mal dormir si l’on se couche en pensant à la crise climatique qu’à une superintelligence hostile.

Vous parlez à quelques reprises d’Isaac Asimov dans votre essai. Le lisiez-vous plus jeune? Est-ce un auteur qui vous plaît ou qui a eu une influence particulière sur votre parcours professionnel?
Je n’ai lu Asimov que récemment. Adolescent, j’ai fait beaucoup de jeux de rôle et j’étais plutôt attiré par le fantastique (Lovecraft) ou l’heroic fantasy (Tolkien, Moorcock). Mais l’influence directe ou indirecte d’Asimov est telle que, comme pour la plupart des gens, je lui dois une bonne partie de mon imaginaire sur les robots. Et c’est là que se pose une question philosophiquement intéressante : dans la mesure où l’imagination interagit avec notre perception morale (c’était mon sujet de doctorat!), devons-nous accepter sa vision des relations humains-robots et, plus généralement, sa conception du monde? Je crois qu’il est temps d’examiner l’héritage du père des lois de la robotique.

Or, ce qui est frappant avec le recul, c’est de voir combien l’imagination des auteurs de science-fiction est souvent restée très conservatrice. Sur Mars et dans les vaisseaux galactiques, on est allègrement sexiste, raciste, classiste, hétéronormatif, capacitiste, spéciste, etc. Cette littérature nous projette dans un futur empreint de progrès technologique révolutionnaire, mais c’est le salaire minimum pour l’éthique et la politique. Tout se passe comme si c’était trop difficile d’imaginer d’autres types de relations humaines, d’autres rapports aux animaux ou à la nature. Il y a heureusement des exceptions.

Votre ouvrage s’ouvre sur une citation d’Ursula Le Guin, et vous revenez à cette auteure à plusieurs reprises au cours de votre livre. Visiblement, vous appréciez chez elle son regard, ses idées, ses angles un peu plus « champ gauche ». D’ailleurs, en soulignant qu’elle donne justement la parole aux personnes opprimées – pauvres, femmes, etc. –, vous décidez de poursuivre la rédaction de votre essai en utilisant le féminin, au lieu du masculin, comme genre par défaut. C’est à la fois audacieux, car on ne voit jamais cela, mais, à l’inverse, c’est dans l’air du temps. Pourquoi avez-vous fait ce choix?
Après ce que je viens de dire sur Asimov, on comprend qu’Ursula Le Guin, avec sa perspective rafraîchissante et progressiste, fait office de contrepoids. C’est une autrice que je recommande, notamment son roman Les Dépossédés qui dépeint une planète anarcho-féministe où les gens ne possèdent rien. Elle parlait à son sujet « d’utopie ambiguë », ce qui convient aussi très bien à sa formidable nouvelle The Ones Who Walk Away from Omelas.

En ce qui concerne le changement de style dans le dernier tiers du livre, je dois dire que j’hésite à répondre, car j’ai peur de divulgâcher! En tout cas, j’aime l’idée que les lecteurs et les lectrices déboulent dans le féminin par défaut sans attentes ni préconceptions. Je veux leur faire une surprise, créer une expérience de lecture inédite. J’hésite aussi à répondre parce que je voudrais laisser l’interprétation ouverte – c’est ma façon de plaider pour l’ambiguïté. On peut bien sûr y voir une sorte d’hommage à Le Guin qui a joué avec le genre dans La main gauche de la nuit. Mais c’est surtout une façon de pousser l’idée de changement de perspective. Cela nous fait prendre conscience des options par défaut dans la langue française. On écrit comme ça, mais on pourrait écrire autrement, c’est une norme conventionnelle. C’est important de garder cela en tête car lorsqu’on programme un algorithme, les options par défaut vont probablement s’imposer aux utilisateurs.

Passer au féminin par défaut, c’est aussi expérimenter : qu’est-ce qui se passe quand on modifie une règle linguistique? Qu’est-ce que ça change de parler de programmeuses plutôt que de programmeurs pour désigner un groupe mixte? Comment cela va-t-il être reçu? J’espère sans trop y croire un effet performatif : peut-être qu’une jeune fille qui lit ça se sentira plus légitime à étudier en informatique. Plus généralement, j’aimerais que ce petit décalage favorise un regard critique sur nos stéréotypes et nos catégories mentales. Pour le reste, mon côté snob est un peu gêné que ce soit dans l’air du temps, mais mon côté progressiste est content. Cela dit, je me demande si ce n’est pas mon côté « creative non fiction » qui en a le plus profité. J’ai eu beaucoup de plaisir à écrire des phrases qui sonnaient étrangement, avant de m’y habituer peu à peu. Ursula serait fière de moi.

Vous n’en parlez pas à proprement parler dans votre ouvrage, mais avant de se poser la question si on peut faire la morale aux robots, ne serait-il pas essentiel de se demander s’il est, tout simplement, moral de souhaiter vivre dans un monde avec des robots?
Oui, cela revient un peu à la question de savoir si, globalement, le développement de la technique est bon ou mauvais pour nous. C’est une question difficile et, dans mon livre, j’ai décidé de l’esquiver. J’ai mis entre parenthèses le débat entre techno-optimisme et techno-pessimisme, et toutes les critiques fondamentales de ce que Jacques Ellul nommait le système technicien. Ce n’est pas très glorieux. Mais mon avis n’est pas encore arrêté sur ces questions.

J’ai choisi de m’intéresser à autre chose, plus à ma portée. Je ne me demande pas si nous avons besoin de voitures autonomes ou d’assistants vocaux, mais comment les programmer moralement. C’est ce que j’appelle l’éthique des algorithmes, que je distingue du domaine plus large de l’éthique de l’IA. Il serait de toute façon dommage que la réflexion philosophique et morale sur l’intelligence artificielle se cantonne au pour ou contre la technique. Il y a énormément d’autres matières à penser, à commencer par la question de savoir ce que seraient un bon robot et un robot idéal.

J’espère avoir apporté ma pierre et un peu de mortier au débat.

Photo : © Élise Desaulniers
Lire le blogue de Martin Gibert : https://medium.com/@martin.gibert/quest-ce-que-l-%C3%A9thique-des-algorithmes-b681dac27334

Publicité