Alors que l’informatique a longtemps visé l’efficacité en nous permettant de travailler plus vite, l’avènement de l’IA générative nous invite à une rupture qualitative : celle de travailler mieux. La perspective de la superintelligence apporte un véritable paradigme : non plus seulement gagner en performances, mais transformer en profondeur notre manière de travailler. Derrière les promesses des Big Tech se dessine une rupture organisationnelle et humaine, où chaque individu pourrait devenir une agence autonome, capable d’innover et d’agir avec une agilité inédite. Mais cette révolution porte aussi son lot de risques, économiques, sociaux et éthiques, qui imposent une réflexion collective sur l’avenir que nous voulons construire.

En synthèse :
Depuis plus d’un demi-siècle, nous vivons dans un monde façonné par l’informatique. Les ordinateurs ont tenu leur promesse initiale : nous permettre de travailler plus vite en supprimant le papier pour pouvoir réduire les temps de traitement et fluidifier la circulation de l’information. Mais cette logique arrive aujourd’hui à ses limites : infobésité, multiplication des applications, éparpillement des informations, données et connaissances… Avec l’avènement de l’intelligence artificielle, et plus particulièrement de l’IA générative, nous découvrons une nouvelle perspective : travailler mieux. Autrement dit, aller au-delà de l’exécution accélérée de tâches et pratiques héritées du siècle dernier.
Le paradoxe est que, malgré cette promesse, nous restons largement enfermés dans une logique d’optimisation de l’existant. La majorité des cas d’usage de l’IA générative repose encore sur une idée simple : faire plus avec moins. Or, les modèles génératifs progressent à une allure considérable, ouvrant de nouvelles perspectives. Ainsi, moins de cinq ans après l’arrivée des premiers grands modèles de langage, nous n’avons exploré (et envisagé) qu’une infime partie de ce qu’ils peuvent nous apporter : L’adoption de l’AI générative ne passera ni par les politiques, ni par les cas d’usage.

Certains se vantent d’avoir optimisé leur fonctionnement (= licencié des salariés en trop) : Salesforce CEO Marc Benioff says AI has already replaced 4,000 jobs). C’est un argument de vente très alléchant, certes, qu’ils s’appliquent à eux-mêmes (« Eating your own dog food« ), mais qui n’est qu’une vision / application très restrictive et pas inspirée de ce que l’IA générative a à nous apporter (Col blancs et IA générative : entre promesses d’augmentation et risques de substitution).
Croyez-le ou non, mais nous sommes à un tournant des usages numériques. Le passage de l’IA générative à la superintelligence pourrait ainsi marquer une rupture comparable à l’arrivée du web ou du smartphone : un changement non pas quantitatif, mais qualitatif dans notre manière de travailler.
Mais avant de nous lancer dans des explications à ce sujet, commençons par (re)définir ce que l’on entend par « IA générative ».
Chatbots, agents et superintelligence : une typologie des usages
Pour comprendre cette rupture dans les façons de travailler, il est essentiel de bien distinguer les différentes familles de modèles génératifs qui s’imbriquent et se complètent :
- Les modèles de langage : incarnés par les chatbots généralistes, ils offrent une version augmentée de la traditionnelle FAQ (ils répondent à nos questions et facilitent l’accès à l’information).
- Les modèles de recherche : avec le Retrieval-Augmented Generation (RAG), ils permettent à des chatbots spécialisés de fournir des réponses précises, dépassant les limites des moteurs de recherche classiques.
- Les modèles de raisonnement : véritables assistants méthodologiques, ils aident à structurer des démarches complexes (planification, rédaction, analyse…), allant ainsi beaucoup plus loin que les gabarits de documents.
- Les modèles d’action : incarnés par les agents intelligents, ils autorisent une automatisation avancée, allant au-delà de l’exécution d’une séquence de tâches grâce à des facultés d’observation, d ‘analyse et de décision.
- La superintelligence : le nouvel horizon des grands éditeurs, qui correspond à une intégration d’assistants numériques dans nos environnements de travail (Copilot dans Office, Gemini dans Workspace…). Omniscients et proactifs, ceux-ci s’appuieront sur un réseau de modèles et d’agents pour pouvoir nous accompagner au quotidien en anticipant nos besoins et en décuplant nos capacités.
Cette classification des modèles génératifs, qui n’est pas exhaustive, montre bien que nous ne parlons pas d’une évolution linéaire, mais divergente, autorisant ainsi des usages complémentaires (Nous n’avons pas besoin de meilleures IA, mais d’une meilleure compréhension de l’IA). Selon cette optique, la superintelligence ne remplacera pas les modèles génératifs, elle les articulera pour amplifier notre capacité d’agir.

Reste maintenant à faire de cette vision une réalité informatique.
Quand Microsoft, Meta et Apple tracent la voie
Pour rendre cette vision possible, les Big Techs dépensent sans compter afin de bâtir les infrastructures techniques et recruter les talents nécessaires à l’avènement de leur superintelligence : Amazon, Google, Microsoft, and Meta spent a record $88 billion on capex last quarter et Big Tech may be breaking the bank for AI, but investors love it.
Chaque dirigeant y va de son discours visionnaire :
- Satya Nadella de Microsoft parle d’empowerment (Recommitting to our why, what, and how) ;
- Mark Zuckerberg de Meta évoque les usages personnels (Personal Superintelligence) ;
- Tim Cook d’Apple insiste sur l’intégration fluide dans nos vies quotidiennes (AI Is ours to grab).

Derrière ces mots, une même stratégie : capter l’attention et la confiance des utilisateurs en se posant comme les architectes de cette nouvelle ère numérique (Comment les Big Techs vont s’accaparer le marché de l’IA). N’allez surtout pas croire les discours sur l’innovation disruptive, car la superintelligence est avant tout un concept qui repose sur la convergence des progrès réalisés en puissance de calcul, disponibilité des données et déploiement à très grande échelle (via les smartphones).
Cette vision séduisante soulève une question fondamentale : comment le travail va-t-il s’adapter à cette nouvelle donne ?
Le salarié de demain : une agence autonome
Aujourd’hui, les entreprises et organisations fonctionnent selon un schéma hérité du XXe siècle où tout repose sur les fiches de poste. Ces dernières définissent des attributions et des responsabilités fixes, s’appuyant principalement sur deux critères : le niveau d’études initial et le nombre d’années d’expérience. Ce système est profondément limitatif, car il crée une grille de lecture figée qui détermine non seulement le salaire des salariés, mais aussi et surtout leurs connaissances et capacités présumées.
Selon ce paradigme, la progression est linéaire et lente compte-tenu du fait que les salariés reprennent très rarement leurs études et que l’expérience s’accumule au même rythme pour tous. La capacité d’agir d’un salarié (son périmètre fonctionnel, ses responsabilités…) reste constante au fil du temps. Ce mode de fonctionnement était peut-être adapté à un marché stable (celui de la seconde partie du XXe siècle), mais il est devenu un frein majeur à l’agilité et à l’innovation dans notre contexte de permacrise.

La promesse des Big Techs est que l’arrivée de la superintelligence va bouleverser ce cadre : Elle offrira à chacun un moyen d’augmenter ses connaissances, ses compétences et donc son périmètre de responsabilités. Avec un assistant numérique dopée à l’IA, un salarié pourra gérer des projets plus vastes, prendre des décisions plus éclairées, explorer des domaines jusqu’ici hors de sa portée (Les modèles génératifs seront surtout utiles aux juniors). En d’autres termes : la superintelligence permettra à tout un chacun de s’émanciper, de s’extraire des limites imposées par un système anachronique. Une véritable libération pour des salariés sous pression auxquels on demande de fournir toujours plus de résultats avec des outils et des méthodes d’encadrement du XXe siècle.
Un nouvel âge d’or de l’agilité ?
Cette augmentation des capacités individuelles mène directement à une redéfinition de la notion d’agence. Ce terme, central dans le discours des experts anglo-saxons, mais souvent mal traduit en français, désigne le pouvoir et la capacité d’un individu à agir de manière autonome et à produire des effets.
À terme, chaque salarié deviendra ainsi sa propre agence, c’est-à-dire une entité autonome, capable de mobiliser de nouvelles connaissances et compétences pour pouvoir trouver des solutions plus efficacement et être en capacité d’innover. Encore une fois, ce n’est pas seulement une question d’efficacité (travailler plus vite), mais de transformation profonde des façons de travailler, menées par des individus dont la légitimité ne reposera plus sur leur diplôme ou leur ancienneté, mais sur leur volonté d’agir.

C’est aussi une promesse renouvelée d’agilité, dans un contexte où les entreprises peinent à s’adapter aux chocs successifs de la permacrise. La superintelligence apparaît alors comme un levier pour faire face aux nombreux défis du XXIe siècle (transition énergétique, sécurité alimentaire, urgence écologique… cf. Du Web4 à la Société 5.0).
Mais cette émancipation, aussi prometteuse soit-elle, n’est pas sans risques, car libérer un tel pouvoir d’action individuel sans un cadre clair pourrait conduire au chaos et à accentuer les déséquilibres existants.
L’impératif éthique et les risques de déséquilibre
Reste que toute innovation majeure comporte ses dangers. L’histoire récente nous a montré que la transformation numérique, si elle a apporté croissance et productivité, a aussi accentué les déséquilibres en matière de richesses et de pouvoir (Les plateformes numériques digèrent le monde).
Avec la superintelligence, le risque de déséquilibre est démultiplié. D’un point de vue macro-économique, sans garde-fous, la superintelligence pourrait ainsi renforcer les écarts entre grandes et petites entreprises, entre individus ayant accès aux meilleures ressources et ceux qui en sont privés : Une régulation souhaitable et nécessaire de l’intelligence artificielle.
D’un point de vue micro-économique, à l’échelle d’une entreprise où chaque collaborateur est sa propre « agence » qui repose sur de nombreux agents autonomes, il y a également un risque évident de perte de contrôle. Sans une vision claire de leur métier (processus, contraintes, obligations…), de leur mission (finalité, responsabilités…), et sans un cadre précis pour éviter les débordements, ces salariés augmentés font potentiellement courir de nouveaux risques à l’entreprise.

D’où la nécessité d’un cadre éthique clair. Les entreprises et organisations devront se doter de chartes précises pour définir ce qui est acceptable, ce qui ne l’est pas, et comment garantir une utilisation responsable de l’IA. Sans cela, la promesse d’autonomisation pourrait se transformer en cauchemar de surveillance, de dépendance technologique ou de concentration excessive des pouvoirs. Le rôle des managers va ainsi évoluer : il ne sera plus question de veiller au respect des processus, mais de garantir un alignement avec une vision et une éthique, surtout dans un contexte d’incertitude et de pertes de repères.
Vous noterez que ces considérations s’appliquent à une plus grande échelle. Déjà, à la grande époque de la transformation numérique, il y avait un grand besoin de définir un cadre pour éviter d’accentuer le déséquilibre (répartition des richesses et pouvoirs), d’où des régulations comme le RGPD, le DMA ou le DSA. Avec l’avènement de l’IA et de la superintelligence, le risque d’accentuation de ce déséquilibre est encore plus fort, malgré des points de vue divergents.
Accélérationnistes, décélérationistes… ou symbioistes ?
Face aux grands changements qui s’annoncent, deux visions s’affrontent aujourd’hui : d’un côté, les accélérationnistes, persuadés que plus nous irons vite dans l’innovation technologique, et mieux nous affronterons l’avenir. De l’autre, les décélérationnistes, qui redoutent un effondrement inéluctable et voient dans l’IA et la superintelligence une menace supplémentaire (Des dangers du dogmatisme technologique). Si vous lisez ce blog régulièrement, alors vous savez déjà que je ne suis ni partisan de l’Effective Accelerationism, ni collapsologue. Néanmoins, il convient de ne pas pêcher par naïveté et reconnaitre que la révolution de l’IA nous expose à de nombreux risques.
Je suis récemment tombé sur une réflexion interessante de Emad Mostaque, le fondateur de StabilityAI (l’éditeur du modèle Stable Diffusion) qui envisage trois scénarios possibles :
- Le Féodalisme numérique où la puissance de l’IA est concentrée entre les mains de quelques corporations, reléguant les utilisateurs à un rôle de consommateur passif, dans un système qui, malgré son confort apparent, supprime l’autonomie (d’agir, de penser…). La société occidentale serait ainsi divisée en cinq « duchés numériques » : Google contrôlerait la connaissance, Apple les terminaux, Microsoft le monde de l’entreprise, Meta la réalité sociale, et Amazon le commerce.
- La Grande fragmentation où les nations, poussées par la peur et la compétition pour le contrôle de l’IA, se replient sur elles-mêmes et cloisonneraient l’internet selon des règles et infrastructures distinctes (le web américain, le web chinois, le web européen…).
- Le Symbioisme où humains et IA coexisteraient en symbiose, chacun tirant parti des forces de l’autre. Cette vision n’est pas utopique, dans la mesure où nous vivons déjà dans une forme de symbiose avec les machines (smartphones et objets connectés). Un futur où l’humanité ne se contenterait pas d’être remplacée ou asservie par l’IA, mais où la superintelligence ne ferait qu’approfondir cette interdépendance et serait moteur du progrès.

Adopter une approche symbioiste, c’est reconnaître que la superintelligence ne doit pas être pensée comme un substitut à l’humain, mais comme un complément, une ressource pour étendre notre champ d’action, sans renoncer à ce qui fait notre spécificité : la créativité, l’empathie, le sens critique.
Bon OK, je veux bien reconnaitre que tout ceci est très théorique, voir nébuleux, mais jusqu’à preuve du contraire, nous n’avons pas de vision partagée de la façon dont l’avènement de l’IA générative va impacter notre société, ni de règles communes pour que tous puissent en bénéficier. D’où l’importance de réflexions qui peuvent sembler stratosphériques, mais qui nous font progresser dans notre appréhension du futur que nous souhaitons construire.
Quoi que… en y réfléchissant bien et en prenant un minimum de recul, on se rend vite compte que les deux premiers scénarios sont déjà en train de se réaliser.
Une technologie très puissante à apprivoiser
Comme nous venons de le voir, la véritable révolution de la superintelligence ne sera pas technologique, mais organisationnelle et humaine. Le passage d’un mode de fonctionnement reposant sur des postes et des processus figés à des organisations agiles reposant sur l’agence individuelle est un changement de paradigme radical. Il exige des dirigeants d’aujourd’hui une vision, du courage et une volonté de déconstruire des certitudes bien ancrées. La question n’est plus de savoir si cette transformation aura lieu, mais comment s’y préparer.
Un enseignement très important à retenir est que la superintelligence ne sera pas un outil magique, mais un catalyseur. Elle nous aidera à sortir des cadres figés, à redonner de l’agilité aux organisations, à répondre plus vite aux crises multiples. Mais elle pourra aussi aggraver les fractures sociales et économiques si elle est laissée sans contrôle. Le défi est donc double : intégrer cette technologie dans nos pratiques de travail et nos structures organisationnelles, tout en lui donnant un cadre éthique et sociétal robuste.
Nous entrons dans une nouvelle ère où chaque salarié pourra devenir une agence autonome, où les organisations pourront se réinventer, où la coopération homme / machine deviendra la norme. Mais cette promesse ne se réalisera que si nous savons dépasser les solutions commercialisées par les Big Tech pour construire nos propres usages, nos propres règles, notre propre vision du futur.
En somme, la superintelligence ne décuplera notre capacité d’agir que si nous l’accompagnons d’une réflexion collective sur ce que nous voulons faire de ce pouvoir.
Questions / Réponses
Qu’est-ce que la superintelligence ?
La superintelligence est un concept qui correspond à l’intégration d’assistants numériques omniprésents et proactifs dans nos environnements de travail, comme Copilot ou Gemini. Elle s’appuie sur un réseau de modèles et d’agents pour anticiper nos besoins et décupler nos capacités d’agir.
En quoi la superintelligence est-elle différente des outils d’IA générative actuels ?
Contrairement aux outils d’IA générative qui sont aujourdh’ui utilisés pour optimiser des tâches existantes, la superintelligence représente un changement qualitatif. Elle combine plusieurs types de modèles (langage, recherche, raisonnement, action…) pour transformer radicalement notre manière de travailler, comparable à l’impact du web ou du smartphone.
Quel est l’impact de la superintelligence sur les salariés ?
L’arrivée de la superintelligence pourrait faire de chaque salarié une « agence autonome ». Elle permettra d’augmenter les connaissances et les compétences, affranchissant ainsi les individus des limites imposées par un système basé sur des fiches de poste fixes, l’ancienneté et les diplômes.
Quels sont les risques potentiels de cette technologie ?
Sans un cadre éthique clair, la superintelligence pourrait accentuer les déséquilibres entre grandes et petites entreprises, ainsi qu’entre les individus ayant accès aux meilleures ressources ou non. Au sein d’une entreprise, il existe un risque de perte de contrôle si les salariés augmentés ne sont pas encadrés par une vision et une éthique claires.
Que signifie l’approche « symbioiste » mentionnée dans l’article ?
Le symbioisme est une vision selon laquelle les humains et l’IA coexisteraient en symbiose. La superintelligence serait alors un complément pour étendre notre champ d’action, plutôt qu’un substitut. Cette approche reconnaît que la créativité, l’empathie et le sens critique restent des spécificités humaines.