L’arrivée des intelligences artificielles fait émerger de nombreux chaud-froid teintés d’inquiétudes et de folles espérances. Sur cette couche émotionnelle de réactions viennent se greffer des considérations “éthiques”? Mais de quoi parle-t-on exactement : d’éthique, de morale ou de bonnes conduites?
Nous avons précédémment pointé les stupeurs que suscitent les plateformes qui donnent accès aux intelligences artificielles telles que ChatBOT, Midjourney, Stable Difusion, etc. Les arguments à charge et à décharge s’y déploient avec plus ou moins de passion et de virulences. Mais il faut bien admettre que les approches intellectuelles pourraient être perçues comme déstructurées. Car à bien y réfléchir, l’éthique et la morale ne recouvrent pas exactement les mêmes enjeux.
Sans entrer trop avant dans les détails techniques et philosophiques, posons tout de même des bases solides à ces deux considérations :
L’éthique (façon SpinozIA)
De quoi nous parle l’éthique? L’éthique traite de toutes les questions et lois fondamentales qui veillent à préserver l’espèce humaine. Ces lois varient peu de génération en génération ; elles sont le terreau de notre Humanité, le marbre de nos convictions. Dans nos lois éthiques, on retrouve l’interdiction de tuer son prochain et de commettre toutes sortes de crimes qui se terminent en -ticide.
Les lois éthiques sont interculturelles et communes à toutes les races. D’ailleurs, au sens éthique du terme, parler de plusieurs “races humaines” est un non-sens scientifique, considérant qu’il existe LA race humaine.
Pour beaucoup, tout ce qui touche de près ou de loin à une robotique rendue intelligente est une question éthique qui renvoie à des angoisses plus ou moins avérées.
Depuis l’après-guerre, la culture pop regorge de craintes de déshumanisation des humains par la machine. J’en cite quelques-uns pour exprimer la diversité des approches mais j’en “oublie” non pas des centaines mais des milliers ! Souvenons-nous de :
- Le Charlot des Temps modernes devant la machine à manger
- Le “loyal” Hal de Kubrick
- Le Franckenstein de… à peu près tout le monde
- La sexy Her de Spike Jonze
- Le(s) Blade Runner de Dick, Scott et Villeneuve
- Le cycles des robots d’Asimov
- …
Commencer à citer, c’est commencer à susciter la frustrations de ne pas tous les citer… Néanmoins j’ai terminé ce début de commencement de liste par Asimoz qui est un des créateurs d’une loi éthique qui inspire ou devrait inspirer fortement les développeurs. Ce sont les 3 fameuses lois de la robotique :
- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi ;
- Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi.
Ce qui devait être un argument romanesque demeure encore aujourd’hui comme les jalons d’une réflexion éthique fondamentale en la matière. Entre parenthèses, rien de tel qu’un intellectuel pour étudier le passé et rien de mieux qu’un artiste pour explorer le futur.
Ainsi, au regard des lois d’Asimov, lorsqu’on reproche à la technologie des IA de mettre en danger un fonctionnement économique, on réalise que ces diatribes, même si elle sont intéressantes, n’ont rien à voir avec un positionnement éthique. Ce genre de considération relève proprement de questions morales.
Asimov et les robots vu par l’IA de Midjourney
Les (vraies) questions éthiques de l’IA
Le type de questions vraiment éthiques à se poser est, par exemple, plutôt de l’ordre de :
- l’armement létale d’outils de surveillance sociale (stationnaire ou mobile) ;
- la systématisation et l’automatisation des décisions de Justice (voir le scandale Compas);
- la singularité (transhumanisme) telle que l’envisagent des projets comme Neuralink de Musk, ou différentes filiales et spinoff d’Alphabet qui travaillent sur une hypothétique immortalité, et on en passe ;
- le comportement des véhicules autonomes (sans autre alternative possible, l’IA d’un bus autonome doit-elle préférer écraser 1 enfant ou 3 vieux sur le passage piéton?),
Ces questions touchent profondément à nos conditions d’être humain ; pas tellement à notre organisation sociale. Elles devraient donc être l’objet d’une attention distinctes des préoccupations morales.
Quel positionnement éthique pour l’IA?
Les questions proprement éthiques liées à l’IA devraient donc toucher à la pérénnité et au sens de l’existence humaine. Que l’IA remplace un humain dans une fonction de travail ne le met pas en danger ; et on peut même songer que l’effet est contraire. SAUF si le sens de de la vie de cet humain est d’”avoir un travail”. Dans ce cas, on perçoit immédiatement que la vraie question ne tourne pas autour de l’IA mais du travail, de son organisation et de la valorisation existentielle de l’individu au sein de sa communauté.
Par contre, où la question devient éthique, c’est lorsqu’on songe qu’une IA remplace – carrément – un être humain dans une fonction qui est une des conditions de l’existence humaine. Dans ce cas, qu’advient-il de l’humanité si cette IA cesse soudainement de fonctionner? Voilà une question éthique qui a du sens!
Cette question a déjà été posée sous une forme détournée par des intellectuels comme Barjavel, dans son livre “Ravages”.
Le décor désolé que l’on peut imaginer dans Ravage
Dans cette dystopie datant de 1943, l’auteur plonge la planète entière dans le noir et ses habitants dans un monde soudainement sans électricité. Tout au long du récit, le roman nous décrit les dangers qui pèsent sur l’Humanité et ses voies – très minces – de résiliences. C’est dans ce genre de cas précis que l’on peut clairement percevoir la différence entre enjeux “éthique” et “moral”.
Rien de tel qu’un intellectuel pour étudier le passé et rien de mieux qu’un artiste pour explorer le futur.
La morale, sauce vieille Europe
Disons-le, distinguer “morale” et “éthique” est plutôt une préoccupation européenne, une “tradition continentale”. Mésestimée dans les pays anglo-saxons qui se définissent plutôt comme “analytiques”, cette distinction est pourtant très utile lorsqu’il est question d’arbitrer les rôles de l’IA dans notre futur.
Comment définir la “morale” ? A l’inverse de l’éthique, la morale fluctue sans cesse. Dans les siècles précédents, elle pouvait évoluer, plus ou moins intensément, par itérations sur plusieurs générations. Depuis l’avènement de l’ère industrielle, elle évolue beaucoup plus vite, quasiment de génération en génération , et on peut même avancer que depuis notre entrée dans l’ère numérique, les codes moraux sont susceptibles de carrément muter au sein d’une même génération.
La morale en communS
Grosso modo, les lois morales tendent à organiser notre vie en commun ; les lois morales peuvent également guider l’individu mais un individu qui se sent appartienir à un groupe composé d’autres individus. Les lois morales sont surtout affaires de cultures, de territoires, de communautés. Quoi qu’on en dise, il n’existe pas de lois morales universelles. Tout comme le port du jean’s n’est pas une obligation mondiale : et pourtant, on en trouve qui en porte aux quatre coins du globe, ce qui n’est pas facile parce qu’un globe, par nature, c’est rond…
Donc oui, la mondialisation a eu ses effets sur les morales territoriales. Mais il n’en reste pas moins que la morale est toujours locale. Contrairement à l’éthique qui est par nature universelle. Tout simplement parce que contourner les lois éthiques menace l’Humanité alors que contourner les lois morales ne font que secouer Landerneau, Tobrouk ou New Dehli.
Bien sûr, il y aura toujours des tentatives de manipulations d’idéologues de tout poil qui tâcheront de convaincre leur collectivité que jouer au yoyo avec des injonctions morales sont d’un ordre éthique qui menace l’Humanité, mais ça ne fait jamais long feu. La Manif pour tous en est un exemple patent.
La morale varie sur les abscisses Y et Z
Cet article de l’ADN est très illustratif de divergences morales qui peuvent survenir entre générations. Si l’on connait leur rejet et fatwa mutuels des “boomer”, l’article décrit cependant très bien les divergences de vues qui existent entre les Y et Z. Divergences, parfois animosités, mais avec toutefois un point de convergence réconciliateur : le souci pour le climat. Or, le climat est tout sauf un souci moral! “Ne jette pas ton papier par terre!” est une injonction morale d’ordre organisationnel et esthétique, mais décarboner la production industrielle pour que les humain·e·s à venir puissent respirer et perpétuer est totalement d’ordre éthique.
Quant à ces bommers et X (pas tou·te·s!) qui ne cachent pas leur opinion qu’ils ne savaient pas, que chaque génération doit relever ses défis, que c’est trop tard pour eux-elles d’agir autrement… commettent-ils une faute morale ou éthique? Je vous laisse trancher…
Quel positionnement moral pour l’IA?
Toute la difficulté d’un positionnement moral pour l’IA mondial est de considérer que la moindre décision aura un impact planétaire alors que, nous venons de le voir, chaque groupe fait plus ou moins à sa sauce. On le voit bien aujourd’hui à travers d’autres exemples, harmoniser une conduite honorable est complexe ; nous songeons :
- à l’application – laborieuse – du RGPD
- aux règlementations liées aux droits d’auteur (qui vont d’ailleurs surgir dans quelques semaines dans le champs d’action des plateformes publiques d’IA),
- au droit du travail (là aussi un acteur comme ChatGPT va devoir s’expliquer quant à son exploitation de travailleurs d’Afrique alors qu’au même moment Microsoft veut investir 10 milliards dans la solution, ce même Microsoft fondé par un milliardaire dont l’essentiel de son temps est consacré à… sauver l’Afrique)
- etc.
Mais il ne faut pas désespérer : ce genre de remise en question morale est cyclique. Les questions fusent rapidement mais les réponses tardent à trouver leur sillon. J’en veux pour preuve cette initiative, le Cluetrain Manifesto datant de 1999. C’était à l’époque de la naissance de l’Internet public, à l’heure où les marketers se précipitaient dans la brèche des opportunités naissantes. En 95 points, ce manifeste élaboré par des intellectuels engagés décrivait exactement l’usage démocratique que les commerçants pouvaient faire des internets. Bon ben voilà… Tout ne s’est pas passé comme le préconisait le manifeste, mais l’Humanité n’est pas morte pour autant… Elle est juste moins bien qu’elle ne pourrait l’être. Et encore, je ne suis pas certain qu’en disant cela, je n’impose pas mon point de vue moral au lecteur et à la lectrice.
En conclusion
Gardons-nous bien de trop vite nous angoisser. Les plateformes d’IA représentent une formidable opportunité de confortabiliser nos futures tâches. Elles ne deviendront toxiques que si nous en laissons le contrôle total dans les mains d’investisseurs qiu ne partagent pas les mêmes valeurs morales – et idéologiques – que notre communauté. Et elles peuvent carrément devenir délétères entre les mains d’ensauvagés – y compris en col blanc – sans foi ni loi éthique.
Tout ceci peut parfaitement être évité. La solution est toujours la même : une règlementation forte, qui protège le citoyen avant de protéger le consommateur. Et des moyens d’appliquer cette règlementation. Sans ambigüité. Et avec pugnacité, au besoin.
Inscription à la newsletter OoyoO
Vous souhaitez recevoir notre newsletter épisodique? Nous partageons avec vous nos dernières publications, études de cas et autres informations professionnelles.