Un an et demi après la sortie de ChatGPT, la pression médiatique est toujours aussi forte pour une adoption à marche forcée de l’IA générative. À quoi cette nouvelle génération d’outils va-t-elle nous servir ? Nous ne savons pas réellement. Mais qu’importe, les modèles génératifs sont la solution universelle à tous nos problèmes, celle qui va améliorer considérablement la performance des entreprises et organisations alors que ces dernières n’ont fait que commencer leur transformation numérique. Toutes ces projections mirifiques sur l’adoption et les bénéfices de l’IA ne tiennent pas compte du facteur humain, et plus particulièrement des collaborateurs qui ne sont pas parfaits, mais qui ont le mérite d’être parfaitement polyvalents et de pouvoir apprendre et évoluer. À condition de les libérer du carcan culturel et méthodologique des outils informatiques du XXe siècle.
#TransfoNum #IA #AssistantsNumériques
En synthèse :
La semaine dernière, en amont de VivaTech, OpenAI avait organisé une conférence en petit comité pour dévoiler sa feuille de route et notamment GPT-Next, son futur nouveau modèle multimodal, censé être la première intelligence artificielle généraliste : Derrière GPT-Next, la seconde vague tant attendue de l’IA générative s’apprête à déferler. Il faudra attendre l’année prochaine avant de pouvoir tester cette nouvelle version de GPT, mais je peux d’hors et déjà vous affirmer que non, ça ne sera pas de l’IA généraliste pour la simple et bonne raison que personne n’est capable de dire ce qu’est une IAG ni à partir de quand elle est (ou pas) généraliste.
Qu’importe le fait que les promesses formulées ne seront bien évidemment pas tenues, car nous sommes dans une dynamique de marché où tout le monde est prêt à croire n’importe quoi. Il y a comme un récit commun auquel tout le monde veut croire, tant l’intelligence artificielle fascine et effraie (c’est selon : L’IA fait peur, surtout à ceux qui ne font pas l’effort de la comprendre). L’IA est comme une formule magique dont la simple évocation suffit à faire pleuvoir des dollars ou créer des emplois : Macron veut former 100.000 experts IA par an en France. Entendons-nous bien : je n’ai rien contre l’optimisme, car nous en avons besoin en ce moment, mais je crains que cet excès d’enthousiasme autour de l’IA ne tourne court et génère un phénomène inverse, comme c’est le cas actuellement pour le métavers (cf. Où en est le métavers en 2024 ?).
Le moins que l’on puisse dire, c’est que la méthode Coué appliquée à l’IA fonctionne puisque la promesse de gains de performances des modèles génératifs s’applique aussi aux « vieux » acteurs de l’industrie qui pourraient connaitre une seconde jeunesse et redevenir rentables : AI Is Driving the Next Industrial Revolution, and Wall Street Is Cashing In.
Malgré toutes les mises en garde et précautions que certains essayent de faire entendre, le miracle de l’IA fonctionne et permet de monter des projets complètements démesurés dont l’unique objectif est de lever le plus d’argent possible : Musk Plans xAI Supercomputer, Dubbed ‘Gigafactory of Compute’.
À quoi tout cet argent va-t-il servir (nous parlons de plusieurs dizaines de milliards de dollars) ? À faire des applications informatiques bien sûr !
L’IA n’est qu’un outil informatique dont nous n’avons qu’une maitrise partielle
Vous pouvez penser que c’est un raccourci grossier ou une vision extrêmement réductrice, mais l’intelligence artificielle est jusqu’à preuve du contraire une ressource informatique. La (triste) réalité que personne n’a envie d’évoquer, car le récit de la disruption est bien plus valorisant, est que les IA sont des applications informatiques comme les autres, des outils pour nous aider ou pour faire des choses à notre place. Ni plus, ni moins.
Ceci étant dit, on se rend vite compte en prenant du recul que cette assertion n’est pas du tout péjorative, car l’informatique est le plus puissant levier de croissance et d’évolution depuis la voiture, encore plus que la télévision. Tout comme l’automobile est en train de faire sa mue (abandonner les moteurs thermiques pour passer à l’électrique), l’informatique est également en train d’être transformée par les progrès réalisés en matière d’apprentissage automatique (les gens cool de l’internet disent « machine learning »). Et à l’avant-garde de ces progrès, on trouve les grands modèles linguistiques et les transformeurs, ceux-là mêmes qui occupent le devant de la scène depuis 18 mois (cf. Mythes et réalités des IA génératives) et qui sont la cause de cette course à l’armement.
Pour le moment, les grands éditeurs sont surtout en recherche d’exploits techniques (augmenter le nombre de paramètres ou la taille de la fenêtre de contexte) afin de bénéficier de la plus large exposition médiatique. Une course à l’armement qui monopolise toutes les ressources et font passer les considérations éthiques au second plan (OpenAI’s Long-Term AI Risk Team Has Disbanded).
Si cette frénésie est effectivement une bonne chose pour faire progresser la technique, car l’intensité concurrentielle est à son maximum, nous sommes tout à fait en droit de nous interroger sur la finalité de tout ceci et surtout sur le niveau de contrôle, car il n’est de secret pour personne que nous ne maîtrisons pas réellement l’IA générative, ou du moins que nous commençons à peine à comprendre comment les grands modèles linguistiques fonctionnent (AI Is a Black Box. Anthropic Figured Out a Way to Look Inside), ce qui n’est pas très rassurant !
Avec une compréhension aussi approximative des LLMs, comment voulez-vous mettre au point une IA généraliste ou estimer de façon sérieuse le temps pour y parvenir ? Je regrette sincèrement que plus personne ne se pose la question alors que les plus grands experts sont pourtant formels sur ce sujet (Meta AI Chief: Large Language Models Won’t Achieve AGI).
Nous savons ce qu’est un ordinateur et à quoi ils servent. Nous savons ce qu’est un réseau et à quoi ils servent. Nous savons ce qu’est le web, et à quoi il sert. Nous savons ce qu’est l’apprentissage automatique et à quoi ça sert. Savons-nous réellement ce qu’est l’IA générative et à quoi elle va nous servir ? Il semblerait que personne ne soit d’accord sur ce point…
L’IA est comme un exosquelette pour le cerveau
L’incroyable paradoxe de l’IA est que si la compréhension du fonctionnement exact des grands modèles linguistiques est très faible, les éditeurs parviennent néanmoins à les faire fonctionner, et à proposer des services qui remportent un très vif succès (OpenAI projette d’ici à la fin de l’année 2024 un C.A. de 2 milliards de $ pour la version payante de ChatGPT). Ceci explique certainement la proportion des uns et des autres à extrapoler sur les prochaines étapes d’évolution des LLMs et de prophétiser l’arrivée très prochaine de l’IA généraliste.
Pour vous convaincre de l’absurdité de ces prophéties, je vous invite à lire cette interview très intéressante de Stephen Wolfram, le créateur du moteur de recherche éponyme : Stephen Wolfram on the Powerful Unpredictability of AI. Il est notamment question dans cette interview de savoir si des calculs probabilistes associés à d’immenses bases de connaissances peuvent supplanter les meilleurs cerveaux humains. En substance : oui et non.
Oui dans un sens, car le traitement du langage est plus simple que nous le pensions, ce qui explique les avancés spectaculaires des chatbots et l’illusion de savoirs (cf. Intelligence Artificielle, l’oxymoron du siècle : « Dans un domaine où on manque de compétence, l’assurance trompeuse de ChatGPT est extrêmement convaincante« ).
Non, car d’autres domaines comme la résolution de problèmes sont plus compliqués que nous le pensons à cause de l’irréductible facteur humain (cf. une autre citation tirée de l’article précédent : « L’expérience humaine liée à la corporéité et aux affects constitue un versant de l’intelligence qui restera probablement à jamais hors de portée des machines« ).
Je n’ai de cesse de le répéter : avec l’IA, il n’est pas question de remplacer, mais d’assister. Tout comme un exosquelette ne remplace pas un opérateur humain (il lui procure un surplus de force pour diminuer l’effort et la fatigue), l’IA n’apporte pas réellement d’intelligence, mais un surplus de capacités de traitements cognitifs (comme une calculatrice, mais en plus polyvalent).
Tout comme une calculatrice ne comprend pas les opérations qu’elle réalise, les LLMs ne comprennent pas les contenus qu’ils génèrent : ils sont la résultante de calculs probabilistes. Voilà pourquoi les discours sur l’intelligence artificielle généraliste sont trompeurs, car pour avoir une IA capable de répondre à toutes les questions et de traiter tous les problèmes qu’on lui soumet, il lui faudrait avoir une parfaite compréhension du monde, dans toute sa diversité et sa complexité, ainsi qu’une bonne expérience du comportement imprévisible et irrationnel des humains.
Le meilleur moyen de ne pas céder à la pression médiatique autour de l’IA est de toujours garder en tête que c’est de l’intelligence AR-TI-FI-CIELLE, tout est dans le terme. À ce propos, peut-être devrions-nous arrêter de parler d’intelligence artificielle… C’est d’ailleurs un questionnement légitime que le patron de Microsoft se posait la semaine dernière : Microsoft CEO Satya Nadella says AI should not be called AI.
I think one of the most unfortunate names is « artificial intelligence ». I wish we had called it « different intelligence », because I have my intelligence. I don’t need any artificial intelligence.
Pour bien comprendre ce qu’ont à nous apporter les IA, il suffit de se référer au paradoxe de Moravec : « Le plus difficile en robotique est souvent ce qui est le plus facile pour l’homme« . Comprenez par là que ce qui est facile à réaliser pour une IA est difficile pour l’homme, et inversement. Un paradoxe qui peut prêter à confusion.
L’IA est plus limitée qu’on ne le pense, mais également plus utile
J’ai déjà eu de nombreuses occasions de vous expliquer que les modèles génératifs ne sont qu’une des applications possibles du principe d’intelligence artificielle (sinon vous pouvez relire ce feuillet pédagogique : Le B-A-BA de l’IA). Les modèles logiques et les modèles discriminatifs correspondent ainsi à des usages très spécifiques de l’IA, donc avec une diffusion limitée (ex : automatiser le traitement de messages entrants ou contrôler la qualité des boulons sur une chaine de production).
Les modèles génératifs sont, quant à eux, destinés à des usages courants (ex : traduire, reformuler ou synthétiser un texte…), contrairement aux méthodes traditionnelles de l’apprentissage profond qui sont quasiment exclusives à certains domaines d’activité (ex : scoring dans la banque ou détection de fraude dans l’assurance). L’IA générative est ainsi plus à considérer comme un couteau suisse pour les cols blancs : GenAI, The Modern Swiss Knife of Knowledge Workers.
En ce sens, l’IA en général, et les modèles génératifs en particulier, ne devrait pas être une finalité, mais un moyen. La première question que nous sommes censés nous poser n’est pas « Comment monter un projet d’IA générative au plus vite« , mais « Quels sont les problèmes que nous cherchons à résoudre ?« . Et ça tombe bien, car nous avons de nombreux problèmes à résoudre découlant de nombreux défis à relever pour faire face aux conditions de marché du XXIe siècle (incertitudes, raréfaction des ressources, permacrise…).
Je pense ne pas me tromper en écrivant que les deux principales nécessitées pour que les entreprises et organisations puissent s’adapter à ces conditions de marché sont de gagner en agilité et de stimuler l’auto-apprentissage. Formulé autrement : Réparer les dégâts de la bureautique en marche forcée et de la prolifération non-maitrisée des processus.
Tourner la page de l’ère informatique et se projeter dans celle du numérique
Je ne vais pas refaire l’histoire (d’autres le font bien mieux que moi, comme Alain Lefebvre avec sa série Une histoire de l’informatique moderne), mais rappelons que la plupart des outils informatiques de notre quotidien apportent une solution aux problèmes du XXe siècle, une époque de croissance économique où il fallait produire toujours plus dans un contexte de marché fortement prévisible. L’objectif des outils informatiques traditionnels était de supprimer le papier et de tout remplacer par des fichiers, des formulaires et des bases de données (bureautique, ERP, CRM…) pour diminuer le nombre d’erreurs et augmenter la productivité.
Ça, c’est fait. Plus de formulaires ou plus de bases de données ne changeront pas la donne.
Les outils numériques proposent une autre approche, car ils tentent d’apporter une solution aux problèmes du XXIe siècle, une époque d’incertitudes et de raréfaction des ressources. L’objectif des outils numériques est d’améliorer la souplesse et la résilience des organisations, et pour ce faire, il faut centraliser les données et connaissances pour faciliter l’accès à l’information et fluidifier la collaboration (Futur du travail : parler moins pour mieux collaborer et produire plus).
Nous avons déjà à notre disposition un certain nombre d’outils et de plateformes de collaboration pour y parvenir (les fameuses digital workplaces). Le problème n’est donc pas la disponibilité des outils, mais les mauvaises habitudes. Des outils de travail modernes comme Monday, Slack, Notion ou Teams sont ainsi forcés de cohabiter avec des outils informatiques traditionnels qui imposent des méthodes de travail du siècle dernier.
Le problème sur lequel les entreprises et organisations doivent concentrer leurs efforts n’est pas de forcer l’adoption de chatbots, mais de stimuler le changement pour faire évoluer les habitudes de travail (pas seulement de rédiger des emails plus vite). La meilleure façon de le faire serait de proposer une aide formelle avec des coachs chargés d’accompagner chaque collaborateur dans sa transition des outils informatiques vers les outils numériques :
- abandonner la culture des fichiers et des emails, donc extraire les informations,les connaissances et les conversations de ces supports pour les héberger dans des espaces de travail communs (en fonction des projets ou des activités) ;
- fédérer les données éparpillées en local ou dans le cloud, donc collecter, nettoyer et structurer des données hétérogènes au sein de bases de connaissances (référentiels produits ou métiers) ;
- transformer des logiciels monolithiques en applications en ligne modulaires, donc modéliser les flux d’informations et les processus pour créer des applications réellement adaptées aux besoins des utilisateurs (no-code).
Une tâche titanesque, vous en conviendrez, qui se heurte à la résistance au changement et qui exige un accompagnement de proximité. À la grande époque de l’Entreprise 2.0, nous pensions que l’adoption d’outils collaboratifs se ferait de façon naturelle, mais les bonnes intentions se sont fait balayer par la permacrise.
Comme précisé plus haut, embaucher une armée de coachs serait bien trop coûteux et compliqué à mettre en oeuvre à grande échelle. En revanche, les assistants numériques peuvent potentiellement jouer le rôle de coachs virtuels pour accompagner chaque collaborateur dans l’évolution de ses habitudes de travail. L’objectif n’étant plus d’augmenter la cadence, mais d’améliorer la souplesse et la réactivité.
C’est en substance la promesse de l’assistant numérique de Microsoft, qui en l’associant à Teams espère verrouiller un marché acquis dans la précipitation à l’époque de la COVID. Si j’ai beaucoup de reproches à faire à la première version de Teams, force est de constater que le combo Office 365 + Teams V2 + Copilot est très séduisant : Microsoft intros a Copilot for teams.
Croyez-le ou non, mais nous sommes ici en plein dans le concept d’intelligence artificielle : déléguer à des assistants numériques des tâches intellectuelles trop couteuses ou complexes à réaliser par des humains (aider les collaborateurs à adopter de nouveaux outils et nouvelles habitudes de travail).
Encore plus fort, la nouvelle version de Windows propose même d’enregistrer tout ce que vous faites pour pouvoir documenter votre quotidien : Recall is Microsoft’s key to unlocking the future of PCs.
On ne va pas se mentir, cette fonctionnalité fait débat (Microsoft’s « Recall » Feature Looks Like a Privacy Nightmare and I Don’t Want It), car elle s’apparente à de la surveillance, du moins pour ceux qui ont peur d’être surveillés. Pour les autres, c’est potentiellement un très bon outil de recherche, mais également d’extraction des informations, données et connaissances des emails, fichiers, conversations… éparpillées dans les différentes applications (Office, Outlook, SharePoint, Teams…) pour éventuellement les archiver et les structurer ultérieurement.
Quand bien même vous ne souhaitez pas avoir recours à cette fonction « Recall », l’assistant numérique de Microsoft, ou un autre, apparait clairement comme une ressource très utile pour un ensemble de situations propres aux travailleurs du savoir, les cols blancs : synthèse de documents, traduction de messages, retranscription de réunions, reformulation de paragraphe, structuration de tableaux de données… Le fait de passer systématiquement vos fichiers, emails, conversations ou réunions à la moulinette de l’IA générative permettrait d’extraire des informations, données et connaissances précieuses et de les archiver dans une base de connaissances structurée, le fameux « Work Graph » dont Microsoft nous parle depuis des années. Une théorie intéressante de capitalisation / structuration des informations, données et connaissances en fonction de différents contextes de travail qui prend tout son sens : l’IA générative au service de la productivité (faire plus avec moins) et de la collaboration (partager et assouplir).
L’assistant de Microsoft a-t-il la capacité de transformer cette promesse ? Oui, mais pas que lui.
Assistants numériques généralistes vs spécialistes
Comme nous venons de le voir, les assistants numériques généralistes sont polyvalents, mais forcément limités par les informations auxquelles ils ont accès (dans le cas d’un employé de bureau : ses fichiers, emails…). Pour pouvoir fournir une aide de plus haut niveau, les assistants numériques doivent avoir accès à des informations et données spécialisées, celles qui sont dans les applications spécialisées. Et c’est là où nous allons potentiellement avoir un morcellement du marché, car les éditeurs d’applications spécialisées n’accepteront jamais de partager leurs données avec les assistants de Microsoft ou Google.
Voilà pourquoi tous les éditeurs ont sauté dans le train et proposent maintenant leur propre assistant boosté à l’IA générative, à l’image de Copilot pour Sage ou de Einstein pour SalesForce avec ses NBA (suggestions de « Next Best Actions »).
Je ne suis pas devin, mais j’anticipe à court terme la prolifération de chatbots (ceux qui répondent à des questions) ou assistants (ceux qui sont pro-actifs) dans toutes les applications que vous utilisez au quotidien. Ce ne sera résolument pas une bonne chose, car cela va à nouveau morceler les informations, données et connaissances, mais ça sera immanquablement une étape à franchir avant d’avoir des assistants polyvalents capables d’exploiter les données d’applications métier dans de bonnes conditions (sécurité, confidentialité, performances…).
Après la multiplication des logiciels et des applications métier, il va logiquement falloir faire face à une multiplication des assistants numériques avec une bataille acharnée entre les éditeurs, sans compter les développements spécifiques internes. Mais ce n’est pas tout, car il n’est pas que question d’augmenter la productivité ou d’améliorer la collaboration, puisque nous avons déjà des assistants numériques servant à stimuler la créativité. La promesse d’applications comme Sane ou Napkin est ainsi de vous aider à gérer vos intuitions / inspirations et à structurer vos idées.
Est-ce que tout ceci vous semble un peu nébuleux et éloigné de vos réalités ? Ne vous inquiétez pas, ce sentiment d’incompréhension est partagé par la majorité des utilisateurs potentiels qui ne se projette pas dans ces nouveaux usages. On en vient même à questionner la viabilité de tous ces outils (AI isn’t useless. But is it worth it?). Le problème ne vient pas de la puissance des modèles génératifs (leurs capacités techniques), mais plutôt du fait qu’il n’y a pas réellement de cas d’usage probants et urgents. Autant dans certains secteurs, les applications traditionnelles du machine learning sont simples à comprendre et à accepter (ex : évaluation de l’exposition au risque d’un portefeuille boursier, détection de fraude dans l’assurance…), autant les applications des modèles génératifs correspondent à des tâches qui sont déjà réalisées par les utilisateurs, sauf que si c’est la machine qui les réalise, ça sera plus rapide et mieux fait. Avouez que c’est un peu vexant…
Voilà pourquoi je ne crois pas en un scénario idéal où les utilisateurs vont adopter très rapidement tous ces nouveaux outils tant la promesse et forte. Pour illustrer mon propos, je vous recommande cet article qui envisage une montée en puissance progressive avec différents paliers d’adoption et niveaux d’impact : Will AI put us out of work? The 4 most likely scenarios.
Dans ces 4 paliers, la plus-value des assistants numériques est de plus en plus forte, mais leur adoption se fait dans la durée :
- De nouvelles fonctionnalités ajoutées à un outil existant (« AI as email 2.0« )
- De nouvelles connaissances et capacités (« AI as a productivity megaphone« )
- De nouvelles expertises proposées aux juniors (« AI as an expert« )
- Une automatisation de toutes les tâches (« AI as the end of work« )
Très honnêtement, je doute fortement qu’un jour les IA soient capables de remplacer complètement les humains. La principale raison n’est pas technique, mais économique : en théorie, les robots et automates sont capables de reproduire tous les gestes des travailleurs manuels avec une plus grande précision et une bien meilleure efficacité. Mais si les robots n’ont pas remplacé les travailleurs manuels, c’est tout simplement que les humains occupent des postes où la polyvalence l’emporte sur la précision ou la rapidité d’exécution. En d’autres termes : il est parfois moins couteux de payer un humain que de concevoir un robot pour le remplacer. C’est la même chose pour l’IA : si à priori il n’y a pas de limites aux capacités computationnelles des machines, les humains restent indispensables, car ils sont parfaitement polyvalents et peuvent apprendre en autonomie.
Nous en revenons aux deux priorités des entreprises (gagner en agilité et stimuler l’auto-apprentissage) qui sont également les principales promesses de la transformation numérique.
Relancer le chantier de la transformation numérique
Je pense ne rien vous apprendre en écrivant que de façon générale, la transformation numérique des entreprises et organisations a connu un formidable coup d’accélérateur pendant la période de la COVID (télé-travail), mais que depuis elle est à l’arrêt à cause d’un contexte socio-économique compliqué (ce n’est plus la priorité).
Pourtant, si l’on fait le bilan des 20 dernières années, la très large majorité des entreprises et organisations n’ont fait que numériser l’existant, il n’y a pas réellement eu de transformation profonde de leur fonctionnement ou de leur modèle économique. Cette première phase était une condition nécessaire, mais pas suffisante pour se projeter dans le XXIe siècle et affronter les défis à venir.
Le problème est que l’élan initial de transformation numérique est retombé, car les hackathons et autres data labs sont très (trop) éloignés du quotidien des salariés. Ces modalités de transformation ont prouvé leur utilité pour des problématiques que l’on sait traiter avec les méthodes traditionnelles de machine learning, mais les prochaines transformations seront beaucoup plus compliquées à réaliser, car elles touchent l’ensemble des collaborateurs et leur façon de travailler (outils et habitudes).
Ainsi, pour relancer la transformation numérique à l’échelle individuelle, il va falloir s’insérer dans le quotidien de chaque collaborateur pour l’aider dans la réalisation de tâches banales, et c’est précisément à ça que vont servir les assistants numériques de nouvelle génération comme Copilot ou Gemini : un accompagnement de proximité pour modifier les habitudes de travail et migrer des outils informatiques vers les outils numériques. Autant les cols bleus ont déjà connu leur révolution (automatisation des chaines de production), autant pour les cols blancs, le plus gros des transformations reste à faire, et les assistants numériques vont les y aider.
Rassurez-vous, comme ça a déjà été dit plus haut, le déploiement de ces assistants et cette seconde phase de la transformation numérique ne vont pas se faire en quelques mois (ça serait beaucoup trop violent pour les collaborateurs et ça perturberait l’organisation).
Nous avons encore le temps de bien faire les choses, à condition de s’y mettre rapidement et d’avoir un minimum d’ambition. L’idée n’est pas de fournir à vos collaborateurs un meilleur correcteur orthographique pour rédiger leurs emails, mais de revoir en profondeur les outils et méthodes de travail, notamment en abandonnant progressivement les outils informatiques du XXe siècle (emails, fichiers bureautiques, ERP…).
L’ambition à laquelle je fais référence est de s’inscrire pleinement dans la 4e révolution industrielle, de laisser derrière nous le concept d’ordinateur individuel ou de production individuelle pour adopter celui des environnements numériques de travail, des assistants numériques et de la co-création de valeur. En somme un nouveau paradigme pour homo sapiens qui a bien du mal à lâcher son silex (cf. De la nécessité d’un nouveau contrat social pour homo numericus). Croyez-le ou non, mais au vu des défis du XXIe siècle, cette évolution est réellement une question de survie pour l’espèce humaine (continuer à créer de la valeur pour alimenter une économie et un système social tout en préservant les ressources).
Pour conclure, j’aimerais appuyer mes propos avec cette citation très inspirée de Hans Moravec :
Nous avons un cerveau qui remonte l’âge de pierre, mais nous ne vivons plus à l’âge de pierre. L’évolution récente nous a adaptés pour pouvoir vivre dans des villages allant jusqu’à 200 parents et amis, à chercher et chasser notre nourriture. Mais nous vivons maintenant dans des villes de millions d’étrangers, occupés à réaliser des tâches non naturelles que nous devons apprendre à accomplir, comme des animaux qui ont été forcés d’apprendre des tours de cirque … Nous pouvons changer, et nous pouvons aussi élever de nouveaux enfants qui seront adaptés à ces nouvelles conditions de vie.
Les « nouveaux enfants » dont il est question dans la vision de Moravec sont les étudiants d’aujourd’hui, ceux qui commencent à se servir des assistants numériques dans leurs recherches et travaux quotidiens. C’est une très bonne chose, mais qui des adultes ? La question n’est pas anodine, car il n’est pas envisageable d’attendre que les nouvelles générations remplacent les anciennes. Il va bien falloir accompagner ces adultes dans l’évolution de leurs habitudes de travail, mais également dans leur vie courante. En définitive, les aider à poursuivre leur transformation numérique. Comme quoi, nous avons beau parler de robots et d’IA, c’est bien des humains dont il est question !