À en croire ses promoteurs, l’IA générative serait la plus grande invention de l’histoire de l’humanité depuis l’électricité. Elle serait notre porte d’entrée dans le XXIe siècle et notre salut face à tous ses défis (dérèglement climatique, répartition des richesses, raréfaction des matières premières, vieillissement de la population…). Je me suis toujours considéré comme un techno-optimiste, mais là, force est de reconnaitre qu’ils vont un peu trop loin dans le solutionnisme technique, et que cette fuite en avant avec l’IA généraliste manque à la fois de prudence et de clairvoyance.
#GenAI #TransfoNum #RNE
Synthèse de l’article :
Voilà presque 2 ans que la majorité des articles publiés sur ce blog parle d’intelligence artificielle. Non pas que le sujet m’obsède, j’en parle depuis de nombreuses années, mais l’actualité est extrêmement riche, car la machine à innover tourne à plein régime. Ainsi, rien qu’en avril voici la liste des nouveaux modèles génératifs annoncés : Claude 3 d’Anthropic, Imagen 2 de Google, Command R+ de Cohere, Mixtral 8x22B de Mistral, DBRX de Databricks, VASA-1 et Phi-3 de Microsoft, Llama 3 de Meta, Grok 1.5V de xAI, Core de Reka, Firefly 3 d’Adobe, OpenELM de Apple, Arctic de Snowflake, Write Pro de Deepl…
Le plus embrouillant dans cette profusion n’est pas le nombre de nouveaux modèles, mais le fait que tous les éditeurs nous démontrent par le biais de benchmarks que leur modèle est meilleur que celui des autres. Et encore, je ne fais référence qu’aux modèles les plus médiatisés, car il y a en beaucoup d’autres : Too many models.
La question est maintenant de savoir pourquoi, ou formulée autrement : à quoi va servir cette débauche de moyens techniques ?
Une course à l’armement pour trouver la solution miracle
Comme vous pouvez le constater sur les graphiques ci-dessus (source : Artificial Analysis), il y a vraiment beaucoup de modèles qui sont difficiles à comparer, car ils présentent tous des avantages et des inconvénients. Chercher à définir quel est le meilleur modèle génératif est comme d’essayer de déterminer quelle est la meilleure voiture du marché : tout dépend de vos usages et contraintes. Mais dans le doute, le classement se fait généralement sur des critères faciles à appréhender. Pour les voitures, c’est la puissance ou la vitesse maximale.
Pour les modèles génératifs, c’est la même chose : plutôt que de s’enliser dans des explications compliquées, les éditeurs s’affrontent sur le terrain de la puissance brute et mettent en avant le nombre de paramètres ou la taille de la fenêtre de contexte. Un petit jeu dangereux, car cette compétition sera immanquablement gagnée par les éditeurs qui disposent du plus gros budget, et il ne semble pas y avoir de limites : Anthropic CEO believes leading AI models will soon cost up to ten billion dollars.
Idéalement, il faudrait pouvoir départager les modèles selon différents critères (taille, rapidité, consommation d’énergie, qualité des réponses, type de licence…), mais nous ne disposons pas d’outils de comparaison suffisamment fiables qui soient communément acceptés par la communauté (A.I. Has a Measurement Problem). À défaut, il y a des outils de comparaison automatisés, mais il est difficile de se faire une idée à moins d’être vraiment calé en apprentissage automatique…
Nous assistons donc à une authentique fuite en avant avec l’IA générative, sans savoir où tout ceci va nous mener, car nous ne savons à quel point ces LLMs* sont puissants, ni dans quelle mesure ils vont bouleverser le marché de l’emploi (No one actually knows how AI will affect jobs). Le problème que pose cette absence de certitudes est qu’il y a un énorme décalage entre le discours des promoteurs de l’IA générative qui sont d’un enthousiasme à toute épreuve, et les utilisateurs potentiels qui ont beaucoup de mal à se projeter dans cette révolution annoncée. Peut-être serait-il judicieux de classer ces LLMs en fonction de la facilité de prise en main et de la pertinence des services rendus (même une évaluation subjective ferait l’affaire) ? En gros, se mettre à la place des futurs utilisateurs…
- LLMs = « Large Language Models » = Grands modèles de langage
La meilleure analogie qui me vienne à l’esprit pour illustrer ce décalage est ce que nous avons connu dans les années 80 avec l’apparition des PC : tout le monde était d’accord pour dire que l’informatique allait révolutionner le monde, que le potentiel était gigantesque et qu’il fallait que tous s’y mettent au plus vite. Effectivement, l’informatique a bouleversé notre quotidien et transformé l’économie, mais à l’époque, les salariés étaient très sceptiques, car ils ne se projetaient pas dans une utilisation concrète des PC : ils n’y voyaient pas d’utilité immédiate. 40 ans après, nous en sommes au même point avec l’IA.
You know what the biggest problem with pushing all-things-AI is? Wrong direction. I want AI to do my laundry and dishes so that I can do art and writing, not for AI to do my art and writing so that I can do my laundry and dishes.
Je suis ainsi persuadé que le plus gros défi de l’IA générative n’est pas d’ordre technique, mais pédagogique, car les gains de productivité annoncés ne pourront être réalisés que si l’adoption est rapide et effective, ce qui n’a quasiment aucune chance d’arriver en l’état : Quels scénarios d’adoption pour les IA génératives ? Pourtant, vous n’avez pas besoin de moi pour savoir que les temps sont durs, avec une très forte pression commerciale (inflation), sociale (populisme), financière (prix de l’énergie et des matières premières)… qui poussent à faire mieux avec moins (Transformation numérique : tout reste à faire).
Le problème est que nous n’avons pas tous la même compréhension du « mieux » et du « moins ».
L’essor de l’IA se fera nécessairement au détriment de l’humain
À part ceux qui ont choisi de vivre dans une grotte, vous avez tous pu constater qu’il y a un consensus pour décréter que les IA génératives sont l’avenir et que leur déploiement rapide est inéluctable. J’ai déjà eu maintes occasions de questionner ce consensus : Quels problèmes essayons-nous de résoudre avec les IA génératives ? et Si l’IA générative est le futur du travail, quel est son présent ?, aussi je vais aborder ce sujet d’un point de vue plus macro-économique.
Pour faire simple, et en grossissant volontairement le trait, si l’on part de l’hypothèse que les IA génératives vont rapidement être généralisées, nous allons être confrontés à différents scénarios plus ou moins réjouissants que l’on peut échelonner dans le temps :
- à court terme, de nouvelles capacités de rédaction / manipulation de contenus (donc une augmentation de la qualité et de l’efficience) 😃
- à moyen terme, de nouvelles exigences de productivité, donc une pression accrue pour les collaborateurs (beaucoup d’outils, donc plus de charges, donc des salaires plus bas) 😟
- à long terme, un perfectionnement des outils qui prendront en charge une part toujours plus importante des tâches (donc gel des embauches, voir suppression d’emplois) 😳
Encore une fois, je grossis volontairement le trait, mais l’automatisation poussée à son paroxysme n’est-il pas l’argument massue que les éditeurs et promoteurs de l’IA générative clament depuis 18 mois ? Loin de moi l’idée de jouer les polémistes, mais je m’étonne qu’il y ait autant de personnes pour célébrer les progrès et exploits techniques des LLMs, et si peu de personnes pour s’interroger sur le sort des salariés qui seront concernés par ces gains de productivité (une notion vague, et surtout un vocabulaire châtié pour ne pas avoir à dire « licenciements »).
Avec des conditions de marché aussi drastiques, nous sommes ici face à un choix impossible : faut-il sauver les entreprises ou les emplois ? Je me doute que vous n’avez pas la réponse à cette question, mais ce n’est pas le but. Mon objectif avec cet article est de vous aider à prendre du recul, à remettre en question l’enthousiasme systémique et inquiétant du marché pour des technologies dont l’objectif est de se débarrasser des employés de bureau à faible valeur ajoutée.
Je ne suis ni économiste ni sociologue, mais je pense que le fond du problème est lié à un changement de paradigme économique : dans une économie en croissance, comme c’était le cas au cours des 30 glorieuses, tout ce qui était produit était vendu. Voilà pourquoi la priorité des entreprises du XXe siècle était d’augmenter la production pour augmenter le chiffre d’affaires, ce qui passait par des embauches, donc moins de chômage, donc une augmentation générale du pouvoir d’achat, donc plus de clients potentiels, donc un besoin de produire plus. C’était un cercle vertueux. 😁
Nous sommes maintenant au XXIe siècle, la croissance des pays européens est en berne, tandis que nos ressources sont de plus en plus limitées. De ce fait, les priorités des entreprises sont maintenant la rentabilité et l’efficience, donc une recherche de gains de productivité, ce qui passe par de l’automatisation, donc moins d’embauches voir des licenciements, donc une baisse générale du pourvoir d’achat, donc moins de clients potentiels, donc plus de pression sur la rentabilité. C’est un cercle vicieux. 😖
Ainsi, pour que la généralisation de l’intelligence artificielle soit profitable à tous, les salariés comme les actionnaires, il va nous falloir résoudre cette équation complexe à de multiples inconnues : Faut-il taxer les robots ? Faut-il bloquer les licenciements ? Faut-il subventionner la transformation numérique des entreprises ?… Vous noterez que cette question n’est pas nouvelle, car certains se la posent depuis de nombreuses années : Automation, AI and the fourth industrial revolution.
Et le pire, c’est qu’il y a non seulement l’aspect social à prendre en compte (sauver les entreprises ou les emplois ?), mais également l’aspect écologique (fin du monde ou fin du mois ?). Comme vous pouvez l’imaginer, la quatrième révolution industrielle risque d’être très douloureuse pour le ventre mou des pays développés : les dizaines de millions d’employés de bureau et du secteur tertiaire dont l’essentiel du travail consiste à vérifier que les uns et les autres soient à leur poste (dans les locaux ou en télétravail) et à contrôler le bon remplissage de formulaires et tableaux (ceux générés par les ERP qui nous imposent l’éternel cycle des reporting / forecast).
Pour aborder sereinement les prochaines années (limiter la fracture sociale, éviter le piège du populisme…), il nous faut impérativement anticiper le choc de productivité induit par la généralisation de l’intelligence artificielle, mettre en place un New Deal du XXIe siècle pour éviter une nouvelle « crise de 29 » dans 5 ans (chômage de masse d’ici à 2029, pile pour le centenaire de la grande crise).
Il existe déjà un certain nombre de théories ou points de vue macro-économiques pour anticiper ce changement de paradigme : la vision techno-communiste de Sam Atman, le patron d’OpenAI, qui fait l’apologie du revenu universel (Moore’s Law for Everything) ou la Grande Réinitialisation du Forum Économique Mondial (Now is the time for a ‘great reset’).
Qui a raison ou tort ? Impossible de le savoir à l’avance, mais nous pouvons néanmoins du inspirer du passé et notamment de l’uberisation dont le bilan est mitigé (nombreuses créations d’emplois à court terme, mais précarisation des travailleurs indépendants qui forment la nouvelle « masse laborieuse », les ouvriers non-qualifiés de l’économie à la demande).
Faut-il se réjouir ou redouter l’avènement de l’IA ? Je ne sais pas. Existe-t-il un scénario où tout le monde gagne ? Je ne sais pas. Quel est le niveau de risque encouru par les salariés, les entreprises ou les états ? Je ne sais pas.
Beaucoup trop de questions sans réponse
Comme vous pouvez le constater, il n’y a pas à chercher très loin pour trouver de la matière à questionner cet enthousiasme excessif pour l’IA générative. Néanmoins, considérer que l’intelligence artificielle est la cause de tous nos futurs problèmes serait un raccourci grossier. Ce n’est pas tant l’IA en elle-même qui cause ou peut causer problème, mais plutôt l’introduction d’une nouvelle technologie qui bouleverse l’ordre établi, et son adoption plus ou moins rapide par les acteurs historiques qui crée un déséquilibre.
Pour expliquer ce phénomène, prenons l’exemple des médias :
- L’arrivée d’internet n’a convaincu ni les rédactions ni les journalistes, mais dans le doute, ils ont publié leurs articles en ligne (PGC = « Professional Generated Content« , des contenus de qualité, mais couteux à produire) en misant sur la publicité, qui était rétrospectivement un mauvais choix, avant d’opter des années plus tard pour de l’abonnement mensuel. Il en résulte un secteur sinistré qui ne subsiste que grâce aux subventions et au racket de Google par le Gouvernement.
- La montée en puissance des médias sociaux a également été perçue comme une distraction pour le peuple… jusqu’à l’affaire Cambridge Analytica et la prise de conscience de la capacité des grandes plateformes sociales à collecter d’innombrables données personnelles sur les utilisateurs et à leur servir des contenus affinitaires pour orienter leurs achats ou leur vote (UGC = « User Generated Content« , des contenus à la qualité variable, mais gratuits à produire). Il en résulte de gigantesques machines à propagande que les gouvernements ont le plus grand mal à contrôler (il a fallu des années pour contraindre les éditeurs à renforcer la modération), et qui dans certains cas se solde par un aveu d’échec (le pouvoir exécutif US qui ordonne la vente ou la cessation d’activité de TikTok).
- Le perfectionnement des IA et des modèles génératifs qui sont maintenant capables de rédiger des contenus de très grande qualité à l’échelle industrielle (AIGC = « Artificial Intelligence Generated Content« , des contenus de qualité, mais peu inspirés), et qui risquent de littéralement submerger les médias numériques ou grandes plateformes sociales à des fins publicitaires ou électorales. D’où l’affolement des gouvernements qui à nouveau votent des lois en catastrophe pour tenter de ralentir ce risque de submersion éditoriale.
Dans les trois cas de figure, la cause de ces perturbations est le rapport de force asymétrique entre ceux qui adoptent rapidement ces nouvelles technologies ou usages, et ceux qui trainent des pieds et finissent par subir ce déséquilibre.
La morale de cette histoire est que la réaction de l’Union Européenne face aux progrès rapides (fulgurants ?) de l’IA générative n’est finalement pas si disproportionnée quand on analyse les conséquences des précédentes vagues technologiques, et surtout le potentiel disruptif des LLMs (From UGC to AIGC: Traveling through historical cycles and being a friend of time).
Ceci étant dit, je ne suis pas fermé à l’idée d’une symbiose mutuellement bénéfique (Generative AI’s role in job satisfaction), mais j’ai un peu de mal à me résoudre à l’idée que la principale raison pour le déploiement rapide de l’IA générative est de le faire avant que les autres s’en servent pour créer un rapport de force asymétrique. Ce schéma d’adoption ne me semble pas viable, car il ne correspond pas à un besoin légitime chez les futurs utilisateurs. De plus, il comporte des risques, notamment en ce qui concerne la production de nouveaux contenus et leur impact sur les futurs modèles génératifs.
Nous savons ainsi aujourd’hui que les éditeurs ont déjà aspiré les plus grands sites web (ex : Wikipedia, sites d’information…) et que leur recherche de contenus pour entrainer les modèles les amènent à aspirer maintenant les contenus des plateformes sociales (ex : discussions de Reddit, transcriptions des vidéos YouTube…). Mais la tentation est grande pour les éditeurs et utilisateurs d’utiliser les modèles génératifs pour augmenter de façon significative leur production d’articles et de contributions afin de sortir du lot (en combinant qualité et quantité). Que se passera-t-il quand la majeure partie des contenus (articles ou commentaires) seront générés par des IA ?Qui va empêcher les spammeurs et agents de désinformation d’en abuser ? Qui va s’assurer que les futurs modèles ne seront pas entrainés avec ces contenus synthétiques ?
Ces préoccupations sont tout à fait légitimes, d’autant plus qu’il y a un risque technologique à prendre en compte : celui de la décadence statistique des modèles qui se nourrissent de leurs propres contenus (The Internet Isn’t Completely Weird Yet, AI Can Fix That).
Ce risque d’effondrement des modèles génératifs est-il réel ? Là encore, nous ne savons pas. Voilà pourquoi cet enthousiasme inébranlable autour de l’IA générative est discutable, car si nous connaissons d’hors et déjà leurs points faibles et dérives potentielles, nous sommes incapables d’évaluer le niveau de risque, ni s’il existe une solution ou des parades. Nous pouvons très clairement pointer du doigt la responsabilité des éditeurs de modèles génératifs qui sont lancés à pleine vitesse dans cette course à l’armement par peur de se faire distancer par la concurrence, le tout sous couvert de « progrès » dont va forcément bénéficier l’humanité (cf. Des dangers du dogmatisme technologique).
L’IA générative est-elle un progrès par rapport aux autres applications de l’IA ? L’humanité va-t-elle en bénéficier ou en pâtir ? Nous ne savons pas.
Le bilan sera-t-il réellement positif ?
Au cas où vous vous poseriez encore la question : oui, je suis préoccupé par cette fuite en avant avec l’IA générative qui semble inéluctable. Ce qui ne me rassure pas est que j’ai déjà vécu plusieurs cycles d’adoption ou de rejet technologique qui ont engendré beaucoup de tensions pour le marché, les entreprises et leurs salariés (bouleversements économiques et sociaux). C’est un sujet qui me tient à coeur, que j’ai déjà abordé (Pour une utilisation responsable de l’IA générative) et dont je ne suis pas le seul à me préoccuper : AI isn’t useless. But is it worth it?.
Voilà pourquoi je reste persuadé que face à cet engouement généralisé (aveuglement ?), il convient d’adopter un point de vue prudent et de faire preuve de pragmatisme. Je pense qu’il est tout à fait possible, et salutaire, de ne pas systématiquement considérer que l’IA est la solution à tout, tout le temps. Et heureusement, je ne suis pas le seul : Is Your AI-First Strategy Causing More Problems Than It’s Solving?
Vous noterez que ce discours est difficile à assumer, car l’IA générative est la poule aux oeufs d’or, surtout pour les grands cabinets de conseil qui sont les premiers à la promouvoir : Accenture books $600m in AI revenue as tech consulting push continues et BCG says AI consulting will supply 20% of revenues this year. En cette période de disette, la tentation est grande de surfer sur la vague et de profiter du raz-de-marée médiatique initié par le lancement de ChatGPT pour signer des missions ou pour grappiller de l’exposition médiatique.
Et comme dans mes précédents articles, j’apporte des précisions sur mon point de vue pour qu’il ne soit pas mal interprété : je suis persuadé que l’IA va bouleverser le secteur tertiaire et aider les cols blancs à gagner en productivité, mais à terme, c’est-à-dire à la fin d’une période de transition qui s’annonce longue et compliquée. Dans la mesure où il est vraiment très difficile de déterminer les gains à l’avance, il est quasiment impossible d’anticiper le ROI, donc le bon niveau d’investissement : The AI Revolution Will Change Work, But Nobody Agrees How.
Tout ceci nous amène à parler de viabilité, tant économique, qu’environnemental ou sociale.
Quid d’une approche plus durable ?
Comme c’est souvent le cas avec les nouvelles nouvelles technologies, une innovation chasse l’autre et occupe tout l’espace médiatique. Ça a été le cas avec l’informatique quantique, puis avec la blockchain, puis avec le métavers, et maintenant avec l’IA générative. Certes, le potentiel est bien réel, mais l’exposition médiatique de ChatGPT en particulier et des modèles génératifs en général est tellement forte que l’on en oublie que l’intelligence artificielle est un domaine de recherche vieux de presque 80 ans.
Nous sommes dans une époque où le temps est la denrée la plus rare et la plus précieuse. Voilà pourquoi les discours autour des l’IA se limite aux modèles génératifs. Toutes les méthodes de machine learning ou de deep learning qui nous étaient présentées comme des révolutions il y a quelques années sont ainsi complètement passées sous silence, comme si le simple fait de les évoquer faisait de vous un gros ringard, celui qui n’a pas compris la révolution en cours. 🤫
Pourtant, les méthodes traditionnelles de mise en application de l’intelligence artificielle sont non seulement parfaitement maitrisées, mais en plus très efficaces (à condition d’avoir des données de qualité à traiter). Voilà pourquoi je me démène ces derniers mois à faire de la pédagogie autour des différentes façons d’exploiter l’intelligence artificielle (modèles logiques vs. modèles discriminatifs vs. modèles génératifs), car l’IA ne se résume pas aux LLMs : When Not to Use Generative AI
Certes, tous les grands paliers de maturité des usages et technologies numériques ont nécessité de la pédagogie (ex : cloud computing, smartphones, médias sociaux, Web3, métavers…), mais le sujet de l’intelligence artificielle étant tellement vaste et pointu, il y a un besoin accru en pédagogie pour :
- expliquer les points forts et faibles des LLMs (leurs avantages et inconvénients par rapport aux autres méthodes) ;
- lister les cas d’usage les plus pertinents (et mettre de côté ceux qui ne le sont pas) ;
- sensibiliser et rassurer sur les risques (qui existent, mais existaient déjà sans les modèles génératifs) ;
- pointer du doigt la consommation accrue d’énergie pour entrainer et faire tourner ces modèles (surtout pour générer des images ou de la vidéo) ;
- alerter sur l’obligation de transparence des éditeurs (et notamment sur les contenus utilisés pour l’entrainement des modèles : L’embarrassante question de l’origine des données d’entrainement des IA génératives et Generative AI is a marvel. Is it also built on theft?) ;
- militer pour plus de responsabilisation des éditeurs de modèles ou de solutions (qui est responsable en cas d’utilisation détournée ?) ;
- …
Si vous lisez mes articles régulièrement, alors vous devez déjà être sensibilisé sur tous ces enjeux, mais ces sujets sont loin d’être clos. Il nous faut continuer d’en parler pour mieux faire comprendre les causes, conséquences et solutions possibles.
Plus de jamais, les débats sur l’éthique et la régulation sont essentiels, car je le répète une dernière fois : nous ne savons pas où nous allons. Mais dans la mesure où nous commençons à manquer de temps et de ressources, il faut agir pour le bien de tous, pour éviter que la situation nous échappe. Mon propos peut sembler alarmiste, mais je suis persuadé que l’impact des modèles génératifs sur les médias va être considérable (cf. cet article publié en 2022 : Les IA génératives annoncent une révolution dans les médias et la publicité), et que les répercussions se feront ressentir dans tous les aspects de notre quotidien. Car je vous le rappelle, les médias font société. Si les médias se polarisent, la société se polarise et l’unité sociale se détériore.
La lune de miel de l’IA générative a suffisamment duré, il est largement temps d’adopter un point de vue plus critique et de reprendre les travaux sur le développement numérique durable là où nous les avions laissés (Une transformation digitale vertueuse à travers la responsabilité numérique des entreprises).