Les premières réflexions sur l’intelligence artificielle datent des années 50. Les premiers travaux sur le machine learning des années 80. Nous pourrions croire que l’ancienneté du sujet nous permet d’aborder l’IA avec sérénité et clairvoyance, mais c’est tout l’inverse : plus des progrès sont réalisés et moins nous en comprenons la nature et l’intérêt. Ce phénomène explique la défiance généralisée du grand public vis-à-vis de l’IA et le fossé qui se creuse entre les techno-adeptes et les techno-réfractaires. Un débat infondé que l’on pourrait facilement éviter en employant les bons termes et en se concentrant sur les problèmes les plus urgents à régler plutôt que sur des considérations philosophico-sociétales à sujet d’une hypothétique intelligence artificielle généraliste.
#IA #GenAI
En synthèse :
Alors que la sortie de GPT-5 est imminente, l’ambiguïté est toujours aussi forte sur la possibilité de mise au point prochaine d’une intelligence artificielle généraliste. Certains pensent que nous y parviendrons d’ici quelques années (OpenAI says it’s charting a « path to AGI » with its next frontier AI model), d’autres que c’est une supercherie (Meta AI Chief: Large Language Models Won’t Achieve AGI).
Différents points de vue s’affrontent, notamment sur le réel niveau de maitrise que nous avons des IA génératives, avec des débats animés entre des personnalités plus ou moins légitimes (ex : Yann LeCun vs Elon Musk). Tous ces débats stériles nous font passer à côté de réelles opportunités d’avoir un usage maitrisé, mais bénéfique des modèles génératifs : se servir des IA pour ce qu’elles savent faire aujourd’hui afin de résoudre les problèmes urgents d’aujourd’hui.
Je pense que tout le monde est d’accord avec ça, le problème est que nous sommes perturbés par de trop nombreux signaux parasites.
L’IA est-elle un levier de compétitivité et de croissance ? Nous ne savons pas !
Dire que l’IA va nous aider à mieux travailler et à stimuler la productivité vous faisait peut-être passer pour un visionnaire il y a une dizaine d’années, mais cette assertion a tellement été répétée jusqu’à écoeurement qu’elle produit aujourd’hui l’effet inverse : elle peut générer de la suspicion sur votre compréhension réelle du sujet.
Le dernier a en avoir fait les frais est Leopold Aschenbrenner, un ancien employé d’OpenAI (l’éditeur de ChatGPT) récemment licencié qui a fait le buzz la semaine dernière avec un article fleuve sur le potentiel disruptif de l’IA générative : The Decade Ahead. L’auteur formule plusieurs prédictions dont celle que d’ici à 5 ans, les IA auront fait de tels progrès qu’elles seront en mesure de faire le travail d’ingénieurs ou de chercheurs. Il justifie d’ailleurs son raisonnement à l’aide de ce beau schéma :
Une prédiction très optimiste, même trop pour être honnête, et d’ailleurs déjà décriée par d’autres spécialistes du domaine : A new A.I. influencer is producing some of the most criminal charts I’ve ever seen. Je ne suis pas le mieux placé pour évaluer la pertinence de ces prédictions, mais je déplore en revanche que nombreux s’en servent comme d’un argument irréfutable (cf. les nombreuses reprises de son article).
Autre publication récente : cet article des analystes de Goldman Sachs qui estiment que l’IA pourrait faire gagner entre 1 et 1,5 point de productivité sur une période de 10 ans : AI is showing ‘very positive’ signs of eventually boosting GDP and productivity. Une prédiction qui vient confirmer celle formulée l’année dernière où il était question d’une croissance du PIB de 7%, soit de 7.000 milliards de $ (Generative AI could raise global GDP by 7%).
D’un autre côté, des économistes renommés du MIT réfutent ces prédictions et prévoient que la hausse du PIB devrait se situer entre 1,4 et 1,56 % : Daron Acemoglu is not having all this AI hype.
Selon leur analyse, moins de 5% des tâches pourraient être automatisées, car l’essentiel du quotidien des cols blancs implique des « social tasks » que les modèles génératifs ne savent pas prendre en charge. Ce qui explique la croissance plus faible du PIB, car autant nous savons évaluer l’impact précis de l’automatisation de tâches manuelles (en mesurant l’écart de temps de réalisation d’une tâche, donc sa valeur économique), autant c’est plus compliqué avec le quotidien d’un employé de bureau, car rien n’est modélisé de façon formelle et fiable : Don’t Believe the AI Hype.
Les auteurs concluent leur analyse avec une question pleine de bon sens sur la pertinence des usages de l’IA générative : « Voulons-nous des informations fiables ou des machines qui rédigent comme Shakespeare ?« . Une vision très pragmatique de l’IA qu fait assurément grincer des dents…
L’IA est-elle largement adoptée en entreprise ? Nous ne savons pas !
Poursuivons notre passage en revue des publications à double lecture avec les résultats de l’étude annuelle de McKinsey sur l’adoption de l’IA générative en entreprise : The state of AI in early 2024: Gen AI adoption spikes and starts to generate value. Cette étude nous apprend ainsi que les 2/3 des entreprises font un usage régulier de l’IA générative, et les 3/4 de l’IA en règle générale. Ce qui n’est pas précisé dans l’article, est que la très large majorité de ces usages sont des projets-tests (des PoC, « Proof-of-Concepts ») qui ne concernent qu’une minorité de collaborateurs.
Il ne faut pas être devin pour comprendre que le but de cette statistique et d’alimenter le FOMO, la peur de passer à côté d’une technologie révolutionnaire. Révolutionnaire pour qui ? Surtout pour les consultants : Generative AI will be great for generative AI consultants.
Vous pourriez me dire que ce n’est que le début et que l’adoption de l’IA générative va être très rapide tellement cette technologie est disruptive, et je vous répondrai que le rythme de déploiement se fera en fonction du niveau de risque, notamment pour ce qui est de la véracité des contenus générés ou de la sécurité. C’est justement ce point-là qui pose aujourd’hui problème, car l’étude de McKinsey vient corroborer les retours d’expérience officieux de mes clients : L’IA générative n’est pas magique, c’est un outil informatique comme un autre, dont il faut apprendre à se servir et à connaître les points faibles. Le schéma ci-après nous apprend ainsi que dans près d’1/4 des cas, les informations ou contenus générés par l’IA ne sont pas corrects (oups !).
Les résultats de cette nouvelle étude nous prouvent donc que le verre est à moitié vide et à moitié plein, en fonction de ce que vous souhaitez y voir. Mais ce n’est pas tout…
L’IA est-elle capable de remplacer les humains ? Nous ne savons pas !
Toujours dans la série des déclarations fracassantes, nous avons cette interview du patron de Zoom qui est extrêmement enthousiaste sur les progrès réalisés grâce à l’IA et qui prédit que dans un avenir très proche, c’est votre avatar qui assistera aux réunions à votre place : The CEO of Zoom wants AI clones in meetings.
Cette prédiction est-elle crédible ou même sérieuse ? Je vous laisse seul juge, mais ce qui est certain, c’est que Zoom était l’étoile montante pendant la crise de la COVID, mais que cette société est maintenant quasiment à l’agonie. D’où l’obligation de son CEO de créer de la visibilité pour son produit sous peine de le voir se faire plier en quatre par la concurrence, notamment Teams de Microsoft.
Dans l’absolu, il est effectivement possible d’utiliser un avatar pour participer à une réunion à distance, de le connecter avec un chabot vocal chargé de s’impliquer de façon passive dans les discussions (pour acquiescer de temps en temps), et de générer une synthèse des échanges une fois la réunion terminée. Nous avons toutes les briques technologiques pour le faire, mais en quoi est-ce que ça va nous aider ? N’est-il pas plus simple de décliner l’invitation à la réunion et d’envoyer un message en asynchrone ?
Nous sommes ici en plein dans les travers du solutionnisme technologique : avoir recours à de nouvelles technologies pour résoudre des problèmes souvent créés par des technologies antérieures. La tentation est d’autant plus grande que l’IA générative est une technologie que beaucoup perçoivent comme magique, donc avec laquelle il est très facile de formuler des promesses très fortes.
Je pointe ici du doigt le coeur du problème : le fonctionnement des modèles génératif est tellement opaque et les espoirs tellement élevés, que n’importe qui peut raconter n’importe quoi, il suffit d’y mettre suffisamment de conviction et de saupoudrer le tout avec des statistiques prévisionnelles et un peu de jargon, comme à la grande époque de la blockchain.
Vous noterez que les techno-apôtres ne vous parlent jamais de ce que l’IA peut faire aujourd’hui, mais de ce qu’elle permettra de faire une fois que la technologie aura progressé, sans aucune garantie sur ces progrès ni sur les délais de réalisation. Il suffit juste d’y croire, d’être « visionnaire » (le nouveau terme à la mode pour éviter de dire « bonimenteur » ou « enfumeur »).
Qui à raison ou tort ? Encore une fois, c’est là le coeur du problème, car c’est difficile à dire. Mais ce qui est certain, c’est qu’il y a clairement une mécompréhension des capacités réelles des modèles de langage qui simulent à la perfection, certes, mais sont absolument incapables de raisonner : Even the most capable LLMs fail at simple logic task that kids can solve. Et pourtant, tout le monde veut croire à l’utopie de l’IA généraliste, celle qui va savoir résoudre tous nos problèmes. Ce qui est paradoxalement contre-productif, car il suffirait de se concentrer sur les problèmes les plus urgents pour avoir des résultats immédiats : Don’t let mistrust of tech companies blind you to the power of AI.
« It’s OK to be doubtful of tech leaders’ grandiose visions of our AI future, but that doesn’t mean this technology won’t have a huge impact. »
Formulé autrement : le potentiel est bien réel, mais sa réalisation dépend d’un trop grand nombre de paramètres pour pouvoir déterminer avec certitude des gains de productivité ou des délais d’adoption.
Pour mieux comprendre la situation dans laquelle nous nous trouvons, il suffit de se remémorer les prédictions faites par le passé sur les grandes disruptions technologiques :
- Quand Bill Gates (l’ancien CEO de Microsoft) nous disait en 1995 « The Internet is a tidal wave,it changes the rules« , nous avions du mal à la croire, mais il avait raison. Il a néanmoins fallu attendre 25 ans pour que cela se réalise.
- Quand Marc Benioff (le fondateur de SalesForce) nous disait en 1999 « Cloud computing is the end of software« , nous avions du mal à la croire, mais il avait raison. Il a fallu attendre 20 ans pour que ça se concrétise.
- Quand Eric Schmidt (l’ancien PDG de Google) nous disait en 2005 « Mobile is the future« , nous avions du mal à la croire, mais il avait raison. Il a également fallu attendre 15 ans pour atteindre l’apogée des smartphones.
- Quand Sam Altman (le fondateur d’OpenAI) nous dit « Generative AI has the potential to revolutionize every industry« , il a sans doute raison, mais il est trop tôt pour le constater.
Combien de temps faudra-t-il à l’IA générative pour révolutionner toutes les industries ? Nous ne savons pas, mais nous savons que l’IA traditionnelle est en train de le faire à petit pas.
Il y a de multiples approches de l’IA, plus ou moins spécifiques et intuitives
L’IA est-elle réellement une technologie révolutionnaire ? Oui, et vous n’aviez pas besoin de moi pour le savoir. Le problème est qu’il y a différentes façons de faire de l’intelligence artificielle : avec des modèles logiques (ex : arbres de décision), avec des modèles discriminatifs (ex : système de classification), ou avec des modèles génératifs (ex : grands modèles de langage).
Les modèles logiques sont parfaitement maitrisés et ont déjà délivré leur plein potentiel (notamment avec les systèmes experts) et ne sont absolument pas remis en question par les LLMs. Les modèles discriminatifs sont également très bien maitrisés, ils délivrent d’excellents résultats (notamment avec les outils d’aide à la décision) et ne sont pas non plus remis en question par les LLMs. Vous noterez à ce sujet que les prédictions qui sont aujourd’hui formulées au sujet de l’IA générative sont sensiblement les mêmes que celles formulées à l’époque du machine / deep learning. Des prédictions qui se révèlent justes en termes de potentiels, mais qui ont demandé beaucoup plus de temps que prévu, et ne concernent qu’un petit nombre de cas d’usage, car nous manquons de données de qualité pour entrainer ces modèles.
L’incompréhension que je constate au sujet de l’IA est que nous sommes saturés de discours ultra-optimistes et très approximatifs qui créent de la confusion et nous font douter de ce que nous pensons pour acquis. ChatGPT et les larges langages de modèles nous sont ainsi présentés comme l’évolution logique du machine learning, la solution à tous nos problèmes, comme si nos problèmes se résumaient à la création de contenus, la rédaction d’emails ou la synthèse de documents.
La seule vérité que nous devrions accepter est que si l’IA généraliste est une utopie, les modèles multimodaux sont très puissants et peuvent réellement faire beaucoup de choses, mais qu’on ne sait pas réellement quoi leur faire faire. Selon cet angle de vue, je vous recommande la lecture de cet article qui propose des réflexions intéressantes : Peut-on avoir confiance en l’IA au travail ?.
« On sait que l’IA est une révolution majeure, du même calibre qu’internet ou les smartphones, mais on ne sait pas encore exactement où placer le curseur entre majeur et révolutionnaire parce que les entreprises n’en ont pas encore vraiment déterminé toute l’applicabilité. […] Il y a déjà une vraie fracture entre les très grandes entreprises qui font des PoC dans tous les sens pour identifier les meilleurs cas d’usage, et les PME qui ne savent pas bien par où commencer. »
En y réfléchissant bien, le débat autour de l’IA n’est pas technique, mais étymologique : nous n’employons pas les bons termes.
Utiliser les bons termes pour mieux se comprendre et mieux expliquer
Plus j’y réfléchis, et pus je me dis que nous devrions bannir de notre vocabulaire le terme « intelligence artificielle », car il désigne bien trop de choses. C’est un peu comme si nous utilisions le terme « ressource numérique » pour désigner les sites web, logiciels en ligne, applications mobiles, bases de données… toutes ces ressources correspondent à des technologies et usages distincts qui ne peuvent être correctement appréhendés en n’utilisant qu’un seul terme.
C’est la même chose pour la mise en oeuvre du principe d’intelligence artificielle qui peut schématiquement se faire à travers trois approches :
- l’approche symbolique qui repose sur des règles et référentiels permettant de créer des modèles logiques que l’on retrouve par exemple dans les systèmes experts qui permettent d’automatiser des tâches à faible valeur ajoutée (ex : triage de messages) ;
- l’approche statistique qui repose sur des caractéristiques et associations pour décrire des données et créer des modèles discriminatifs que l’on retrouve dans les outils d’aide à la décision servant à analyser des grands volumes de données (ex : classification) ;
- l’approche probabiliste qui repose sur la distribution de probabilités et de suppositions pour créer des modèles génératifs qui sont le coeur des grands modèles de langage utilisés pour générer des contenus ou donner la parole aux chatbots ;
Utiliser l’un de ces trois termes (modèle logique, discriminatif ou généraliste) permet de bien mieux cerner les méthodes et technologies utilisées pour faire de l’intelligence artificielle ainsi que les usages qui en découlent.
Dans les deux premières approches (symbolique et statistique), nous parlons de technologies à usages spécifiques, car les règles, référentiels et caractéristiques utilisées pour créer les modèles sont spécifiques à un domaine (ex : banque, assurance, santé…). Dans le cas d’une approche probabiliste, nous parlons de technologies à usages généraux, car les modèles sont créés à partir de données d’entrainement très variées (ex : les pages de Wikipedia) pour pouvoir correspondre à de nombreuses situations, idéalement, toutes les situations.
S’il n’y a qu’un petit nombre d’applications de l’apprentissage automatique, c’est que nous ne disposons que d’un petit nombre de jeux de données correctement nettoyées et structurées (ex : les cas de fraudes à la carte bancaire). J’irai même plus loin en disant que certains secteurs souffrent du manque de jeux de données d’entrainement et ne peuvent ainsi pas bénéficier du machine learning pour automatiser ou optimiser les opérations (ex : dans la santé où la collecte de données est très compliquée et coûteuse).
Si les prédictions qui concernent les modèles génératifs sont si optimistes, c’est qu’ils correspondent à des usages généraux. Les assistants numériques comme Copilot et Gemini proposent ainsi une aide générique qui peut être à la fois éditoriale (corriger un texte, reformuler un message, traduire un paragraphe, synthétiser un document…) et méthodologique (formater un document, planifier une activité ou un projet, synchroniser une action…).
Si les modèles logiques et discriminatifs ont permis d’appliquer le principe d’intelligence artificielle aux outils métiers (qui ne concernent qu’un nombre réduit de collaborateurs), les modèles génératifs permettent d’appliquer le principe d’IA aux systèmes de communication et outils bureautiques qui concerne des centaines de milliards d’utilisateurs potentiels. La véritable révolution concerne donc l’ampleur du déploiement de ces outils, le public cible (les gens cools parlent de « marché adressable »).
Faut-il y croire ? Oui, car nous en avons besoin pour nous motiver à changer les choses (It’s time to beleive the AI hype). Même si toutes les conditions ne sont pas encore réunies.
Nous adoptons des outils, pas des technologies
Les modèles génératifs sont donc destinés à faciliter le quotidien des cols blancs en leur apportant une aide éditoriale et méthodologique. Ils sont censés les aider à tourner la page de l’ère informatique et se projeter dans celle du numérique : L’IA n’est qu’un moyen d’achever votre transformation numérique.
Mais pour que cette aide soit effective, il faut faciliter en l’adoption pour les utilisateurs, donc ne pas se contenter de leur fournir une technologie (les grands modèles de langage), mais un produit : Building AI products.
Comme expliqué plus haut, les modèles génératifs sont des technologies à usages généraux, comme les moteurs à explosion l’ont été au XXe siècle. Sauf qu’à l’époque, vous n’achetiez pas des moteurs, vous achetiez des voitures, des motos ou des tondeuses. Voilà pourquoi pour envisager un déploiement à grande échelle, il faut raisonner en termes de produits ou de services. Par comparaison, ChatGPT n’est pas un produit, c’est un démonstrateur technique (pour en profiter pleinement, il faut maitriser les prompts). Firefly est un produit, avec une logique applicative (il s’intègre dans la suite créative d’Adobe) et une interface adaptée (facile à prendre en main).
Cela fait un certain nombre d’années que j’accompagne des entreprises de toute taille dans leur appropriation des outils numériques ainsi que de l’intelligence artificielle, et j’ai acquis la conviction qu’il est impossible de forcer l’adoption en déployant de nouvelles briques technologiques, mais qu’il faut les intégrer dans les outils et processus existants : De l’intérêt d’outils intégrés et maitrisés pour faciliter l’adoption de l’IA. « If you build it they will come » ? Non je ne pense pas, et l’expérience nous l’a prouvé. C’est en tout cas ma conviction actuelle, le seul scénario d’adoption crédible à court terme. À moyen ou long terme, nous ne savons pas.
Ce n’est qu’avec un déploiement progressif (sur l’ensemble des collaborateurs) et des objectifs pragmatiques et réalistes que vous pourrez obtenir des résultats probants et rapides. Ne cherchez pas à faire la révolution grâce l’IA, mais à fluidifier l’évolution des pratiques et à faciliter l’adaptation de nouvelles habitudes. Et pour faire ça, vous n’avez pas besoin d’une IA généraliste, mais de coachs numériques pour mieux exploiter les outils existants (bénéficier des avantages des supports numériques) et corriger les mauvaises habitudes de travail (perdre moins de temps) : L’IA n’est qu’un moyen d’achever votre transformation numérique.
Votre priorité : résoudre les problèmes les plus urgents / anciens
Nombreux sont ceux qui prophétisent la grande réinitialisation grâce à l’IA (« The Great Reset »), avec la promesse de gains de productivité à deux chiffres d’ici à quelques années. Je suis incapable de vous dire si toutes ces prophéties sont réalistes ou si elles peuvent se réaliser en moins de 10 ans, mais je suis en revanche persuadé qu’il est possible de gagner 10 à 15 minutes par jour en concentrant les efforts sur ce qui fait perdre le plus de temps aux employés de bureau : la lecture / rédaction d’emails, la conduite de réunions, la gestion des fichiers…
Dans une période de forte tension, où les marges sont fortement pressurisées, et où les DAF refusent de valider des embauches ou des formations, les assistants numériques sont potentiellement d’une très grande aide non pas pour remplacer, mais pour assister les collaborateurs : les aider à faire mieux avec moins (Une nouvelle ère de l’informatique s’ouvre avec les AI PC).
Pour résumer : la priorité pour vous n’est pas de chercher l’exploit technique (intégrer le plus gros modèle de langage) ou de tenter de faire comme les autres (de répliquer des cas d’usages), mais d’identifier les problèmes les plus urgents et de vous concentrer sur leur résolution afin de remporter des victoires rapides pour cette année (ex : réduire de 10% le nombre d’emails, diminuer le nombre de réunions, leur durée ou le nombre de participants…). Une fois cette première étape franchie, vous pourrez bénéficier d’une dynamique qui simplifiera grandement les changements plus profonds dont votre organisation à nécessairement besoin.
Mais en parallèle de tout ça, rien ne vous empêche d’entamer une réflexion de fond sur les impacts socio-économiques de l’IA du moment que cette démarche n’est pas un prétexte pour freiner ou éviter le changement. J’aborderais ces questions dans un prochain article.
Partager :
- Cliquez pour partager sur Twitter(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur LinkedIn(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur Facebook(ouvre dans une nouvelle fenêtre)
- Cliquez pour partager sur Pocket(ouvre dans une nouvelle fenêtre)