L’intelligence artificielle (IA) est entrée dans une nouvelle ère caractérisée par quatre tendances : une homogénéisation de ses techniques, une accélération massive de son adoption, une asymétrie d’information croissante entre les secteurs privés et publics, et une cristallisation des tensions géopolitiques.
Homogénéisation et foundation models
L’histoire de l’IA est récente (post-1950) mais déjà riche en ruptures technologiques qui ont transformé significativement ses applications commerciales. La dernière en date correspond à l’émergence de modèles d’IA de taille gigantesque permettant d’améliorer et de systématiser l’élaboration des algorithmes prédictifs. Le domaine du traitement automatique du langage fournit un exemple particulièrement éclairant de ce phénomène. Avant 2018, toute tâche spécifique (prédiction de sentiment, détection de fake news…) nécessitait un modèle d’IA spécifique, dont l’élaboration était particulièrement coûteuse. L’introduction du modèle BERT (Bidirectional Transformers for Language Understanding) en 2018 a changé la donne : ce dernier permet de digérer une information textuelle et de la transformer sous une forme plus synthétique, directement exploitable par des algorithmes d’apprentissage automatique traditionnels. Le nouveau paradigme de l’IA procède ainsi d’une homogénéisation des techniques d’apprentissage, à travers un traitement de l’information en deux temps : extraction-synthèse d’abord, puis calibration pour une tâche spécifique. La phase d’extraction-synthèse, très complexe, est précisément rendue possible par l’introduction des foundation models selon la terminologie de l’Université de Stanford, dont BERT fait partie. Le passage à l’échelle de ces foundation models offre de nombreuses promesses mais s’accompagne d’une nouvelle forme de risque systémique en ce que leurs défaillances inhérentes se répercutent sur les nombreux algorithmes qu’ils ont enfantés. Ce phénomène d’intermédiation complexifie la mesure de l’impact sociétal et économique de l’IA pour les décideurs publics.
Le nouveau paradigme de l’IA procède ainsi d’une homogénéisation des techniques d’apprentissage, à travers un traitement de l’information en deux temps : extraction-synthèse d’abord, puis calibration pour une tâche spécifique.
Une adoption massive qui s’accélère
L’intelligence artificielle passe du laboratoire aux usages commerciaux à un rythme jamais atteint auparavant. Son adoption est massive : selon l’entreprise californienne OpenAI, un des leader mondial du secteur, les modèles GPT-3 (génération de texte), Dall-E (génération d’image) ou encore GitHub Copilot (génération de code informatique) ont chacun dépassé la barre symbolique du million d’utilisateurs. On assiste par ailleurs à une accélération impressionnante de cette adoption : si GPT-3, introduit en 2020, a mis deux ans pour atteindre le million d’utilisateurs, il n’a fallu que deux mois à Dall-E 2, introduit en 2022, pour atteindre cet objectif. Ces changements brutaux forcent les décideurs publics à réagir avec un sens de l’urgence toujours plus marqué.
Une asymétrie d’information entre le secteur privé et le secteur public
Les ressources spécifiques nécessaires à l’élaboration des nouveaux systèmes d’IA ont induit une prééminence de la recherche privée sur la recherche publique. À titre d’exemple, le développement des foundation models requiert non seulement la collecte de jeux de données à très grande échelle, mais aussi des moyens de calculs exponentiels dont les coûts peuvent s’élever à des dizaines de millions de dollars, ressources souvent inaccessibles pour le monde universitaire. En résulte une considérable asymétrie d’information entre universités publiques et centre de recherche privés, avec un effet de rétroaction pernicieux : étant les seuls à pouvoir produire les modèles les plus performants, les centre privés attirent les meilleurs talents et font la course seuls en tête. En particulier, l’écart entre la réalité de la technologie déployée dans l’industrie et la perception qu’en ont les décideurs publics s’est considérablement accru, au risque de concentrer le débat sur des chimères technologiques détournant des véritables problèmes sociétaux posés par l’IA. Les entreprises privées entretiennent d’ailleurs un flou technologique sur les capacités réelles des modèles qu’elles développent : les publications scientifiques rigoureuses sont souvent concurrencées par de retentissants communiqués de presse, scientifiquement opaques. Le chercheur canadien Gary Marcus a introduit le néologisme demoware pour rendre compte de ce phénomène d’éditorialisation de l’IA, où l’illusion d’une présentation simplifiée masque parfois le manque de maturité d’une technologie. Afin de rééquilibrer le rapport de force, l’université de Stanford a poussé l’idée d’un cloud national de recherche1 qui aurait vocation à fournir les ressources adéquates à la recherche publique.
L’écart entre la réalité de la technologie déployée dans l’industrie et la perception qu’en ont les décideurs publics s’est considérablement accru, au risque de concentrer le débat sur des chimères technologiques détournant des véritables problèmes sociétaux posés par l’IA
L’accroissement de la géopolitisation de l’IA
Sur la scène internationale, les tensions géopolitiques se cristallisent. Entre puissances d’abord, où les concepts de techno-souverainisme et techno-nationalisme s’illustrent dans les faits. Lorsque l’entreprise Naver, concurrent coréeen de Google, annonce pouvoir répliquer des modèles génératifs de texte aussi performants que leurs concurrents américains, le communiqué de presse précise que “contrairement au modèle GPT-3 centré sur l’anglais, cela signifie également sécuriser la souveraineté de l’IA en développant un modèle linguistique optimisé pour le coréen”. L’exemple chinois est également emblématique de ce nouveau techno-nationalisme : le ministère des sciences et technologies a ainsi établi une liste d’entreprises destinées à former une « équipe nationale pour l’IA » capable de projeter la puissance chinoise. Par ailleurs, une nouvelle forme de diplomatie émerge entre États et plateformes technologiques. D’un côté, les États nomment des ambassadeurs du numérique et auprès des GAFA, de l’autre, les plateformes technologiques recrutent des experts chargés d’anticiper les réactions géopolitiques que leurs systèmes d’IA pourraient susciter2. Cette accroissement de la géopolitisation de l’IA a été perçue dès juillet 2021 par Antony Blinken : « les démocraties doivent passer ensemble le test technologique » et « la diplomatie, […] a un grand rôle à jouer à cet égard ». En France, Emmanuel Macron a récemment souligné la nécessité « d’agréger ce qu’est le métier d’être diplomate avec des connaissances extrêmement pointues dans les technologies ».
Les quatre tendances de la nouvelle ère dans laquelle est entrée l’IA en font une technologie difficile à appréhender. Face à un flou technologique grandissant, les États s’organisent pour prendre la mesure des transformations à l’œuvre, afin de déceler les opportunités et les vulnérabilités de l’IA, enjeu majeur de la décennie à venir.
Face à un flou technologique grandissant, les États s’organisent pour prendre la mesure des transformations à l’œuvre, afin de déceler les opportunités et les vulnérabilités de l’IA, enjeu majeur de la décennie à venir
Des initiatives multilatérales pour mesurer les impacts à grande échelle de l’IA : un mode de gouvernance à repenser
Les États s’organisent dans un cadre plurilatéral, incluant industrie et société civile, pour mieux évaluer et mesurer les impacts macroéconomiques de l’IA (futur du travail, impact économique, inégalités, mutations industrielles …). Mais les initiatives comme le PMIA (partenariat mondial pour l’IA) restent très académiques : rapports techniques sur l’état d’avancée de l’IA ou meilleures pratiques entre pays, les livrables produits dressent des principes généraux sans toutefois fournir de feuilles de routes actionnables. Les groupes de travail sont désemparés car n’ont pas de capacité d’exécution technique directe pour, entre autres, prioriser des ressources ou planifier des financements de long terme. Afin d’être en prise plus directe avec les dernières avancées de l’IA dans les entreprises et de mettre en place des stratégies plurilatérales plus opérationnelles, le mode de gouvernance de ces partenariats reste à repenser. La priorité est à la diversification des expertises et à l’élaboration d’outils d’évaluation capables de faire remonter les points de vigilances concrets aux décideurs publics.
La régulation des usages à l’échelle du système d’IA et des acteurs technologiques
La mise au point d’une régulation adaptée aux systèmes d’IA devient incontournable : il s’agit de prendre en compte les spécificités technologiques du domaine et de construire de nouveaux cadres législatifs adaptés, à l’image de l’AI Act en cours de négociation à la Commission Européenne. De manière cruciale, tout corpus législatif relatif à l’IA doit reposer sur le développement d’outils idoines permettant d’assurer l’audit des systèmes existants. À cet égard, le National Institute of Standards and Technology (NIST) incorpore d’ores et déjà des audit de systèmes de reconnaissance faciale, non seulement du point de vue de leurs performances, mais aussi du point de vue de leurs biais démographiques (vis à vis des femmes et des personnes racisées, notamment). Afin d’assurer un socle de comparaison commun, le NIST dispose de base de données labellisées et non-accessibles aux entreprises auditées. Le développement de dispositifs d’audit spécifiques aux foundation models, qui irriguent tous les autres, est également déterminant pour réguler l’IA de demain. L’université de Stanford entend stimuler cette piste de l’inspection des foundation models en organisant cette année un concours récompensant la mise au point d’outils opérationnels permettant de répondre, par exemple, aux questions suivantes : les décisions du modèle sont-elles stables dans le temps ? les femmes sont-elles sous-représentées par le modèle ? etc.
De manière cruciale, tout corpus législatif relatif à l’IA doit reposer sur le développement d’outils idoines permettant d’assurer l’audit des systèmes existants.
Penser le long terme
La mise en place d’initiatives plurilatérales et la construction d’outils d’audit ne peuvent pas se substituer à la question des valeurs qui doivent prévaloir dans l’implémentation de l’IA. Les préceptes de l’IA de confiance, promus par la Commission européenne, sont relativement récents dans le développement de cette technologie. Historiquement3, trois tendances ont accompagné les avancées du domaine sans anticipations des risques qu’elles induisaient : la compétition homme-machine (plutôt que la coopération), l’autonomie vis-à-vis de toute supervision humaine et la centralisation des ressources. Aujourd’hui, de nombreuses institutions publiques (le centre pour une IA compatible entre la machine et l’humain de Berkeley ), ONG (la cooperative AI fondation) ou entreprises privées (Redwood Research, Anthropic) se penchent sur la question de l’alignement des valeurs entre hommes et machines. Cette question est d’autant plus d’actualité que certaines entreprises comme DeepMind ou OpenAI ont pour objectif affiché de développer une IA qui dépasserait les capacités cognitives humaines.
La révolution technologique induite par l’IA est aussi anthropologique en ce qu’elle bouleverse nos sociétés. Dans le même temps, la mise à jour de nos grilles de lecture politique est brouillée par les nouveaux paradigmes techniques et géopolitiques du secteur. Notons que cette difficulté à appréhender l’IA n’est pas propre aux décideurs publics : ces dernières années, les avancées spectaculaires du domaine n’ont cessé de déjouer les pronostics des meilleurs experts. Dans ce contexte d’incertitude croissante, la mise au point d’outils de mesure adéquats n’a jamais été aussi cruciale.