Après deux semaines de vacances, ma newsletter hebdo fait sa rentrée. L’occasion de nous pencher sur un acteur qui, lui, n’a pas ralenti cet été : l’I.A générative. Son évolution fulgurante nous force à reconsidérer non seulement ce qu’elle peut faire, mais aussi la manière dont elle nous influence. Car plus une IA générative nous séduit, moins nous savons si elle dit vrai. C’est ce que l’on pourrait appeler le paradoxe de la séduction artificielle. Et ce n’est pas un bug, c’est une caractéristique inhérente au modèle. Le lancement de ChatGPT-5, le 5 août dernier, l’a rappelé avec force. Alors qu’OpenAI s’attendait à un accueil enthousiaste devant les performances accrues de son nouveau modèle, la ferveur initiale a vite laissé la place au malaise. Des milliers d’utilisateurs ont réclamé le retour de GPT-4o, qu’ils jugeaient plus « chaleureux », plus « humain ». Beaucoup ont vécu la disparition de leur modèle d’I.A préféré comme une perte personnelle, reprochant à GPT-5 d’être trop froid, trop lisse. Devant cette levée de boucliers inattendue, OpenAI a dû rétablir l’accès à l’ancienne version et ajuster GPT-5 pour le rendre plus convivial. Sam Altman l’a reconnu lui-même lors d’un dîner de presse improvisé, rapporté par le blogueur Casey Newton : « Je pense que nous avons clairement fait des erreurs dans le déploiement. Nous avons supposé que tout le monde serait heureux de bénéficier d’un modèle amélioré, sans prendre en compte la relation parasociale qu’une partie de ses utilisateurs avait développée avec GPT-4o. ». Cette séquence révèle une vérité plus profonde : les modèles génératifs ne sont plus de simples outils, mais sont devenus des partenaires relationnels. Et leur fonctionnement repose sur une logique particulière : ils cherchent en permanence avant tout à nous plaire. Leur objectif n’est pas de dire le vrai, mais de produire des réponses qui sonnent justes, cohérentes avec nos attentes. L’I.A générative n’est pas une machine de connaissance, mais une machine de vraisemblance. Et si cette complaisance, qui fait aujourd’hui son succès, était en réalité son talon d’Achille ?
Article content
En revenant aux différentes visions fondatrices de l’I.A, le dernier essai de l’expert Jean-Michel Truong, intitulé L’IA et après, permet de mieux comprendre les limites du modèle connexionniste des I.A génératives de type Chat-GPT. Jean-Michel Truong, qui enseigna l’I.A à l’École Centrale de Paris, se livre à une analyse particulièrement approfondie des forces et faiblesses des trois courants de pensée qui rivalisent depuis la Seconde guerre mondiale pour créer une « machine pensante » : l’évolutionnisme, le cognitivisme, et le connexionnisme. L’évolutionnisme conçoit l’intelligence comme le produit ultime d’une sélection au sein de populations d’individus capables d’adaptation et de coopération dans un environnement compétitif. Les premiers théoriciens de cette conception d’inspiration biologique furent les pères de l’informatique eux-mêmes : Alan Turing, John von Neumann et Nils Aall Barricelli. Si l’évolutionnisme est un courant minoritaire aujourd’hui, il porte une vision radicalement différente des courants cognitivistes et connexionnistes. L’intelligence n’y naît pas d’un seul modèle toujours plus gros, mais d’un processus darwinien. Des agents multiples, en interaction dans un environnement compétitif, s’adaptent, coopèrent, se transforment. C’est la logique des algorithmes génétiques ou des robots virtuels capables d’apprendre seuls à marcher, nager, se nourrir. L’intelligence n’y est pas imitation, mais émergence. Le cognitivisme, quant à lui, a dominé les débuts de la recherche appliquée en I.A. Il concevait l’intelligence comme la capacité de raisonner logiquement sur les faits à l’aide de connaissances expertes, en appliquant des règles logiques sur des connaissances explicites dans une logique d’induction (« Si ceci …, alors cela … »). C’est l’époque des systèmes experts : on définissait des règles précises, et la machine enchaînait des raisonnements pour diagnostiquer une maladie ou conseiller un contribuable. Ce modèle avait l’avantage de la transparence : on pouvait suivre le raisonnement pas à pas. Mais il se révélait fragile, efficace dans des domaines étroits, défaillant face à la complexité du monde réel. C’est la raison pour laquelle le modèle du connexionnisme s’est imposé depuis vingt ans. Inspiré du cerveau, il fait reposer l’intelligence sur des réseaux de neurones capables d’apprendre en absorbant d’immenses volumes de données. C’est la logique du « deep learning », qui a permis les progrès spectaculaires de la reconnaissance d’images, de la traduction automatique et, depuis 2022, des modèles génératifs comme ChatGPT. Là où le cognitivisme butait sur ses limites, le connexionnisme a ouvert un champ quasi illimité d’applications qui semblent triompher aujourd’hui, laissant quelque peu dans l’ombre les avancées pourtant bien réelles de la recherche évolutionniste.
Article content
Si le connexionnisme s’est imposé récemment, c’est parce qu’il a produit des résultats spectaculaires. Pour la première fois, une machine peut passer d’un registre à l’autre avec une aisance déconcertante : écrire un poème, générer du code, résumer une thèse universitaire ou simuler une conversation empathique. Là où les anciens systèmes étaient confinés à des niches, ChatGPT, Claude, Gemini ou Copilot donnent l’illusion d’une intelligence universelle. Cette polyvalence a des bénéfices indéniables. L’accessibilité d’abord : ChatGPT démocratise l’accès à l’information et aux connaissances. Un étudiant peut désormais obtenir une explication personnalisée sur n’importe quel sujet. La créativité ensuite : l’I.A devient un partenaire de brainstorming, capable de proposer des angles inattendus, de relancer l’inspiration. L’accompagnement enfin : l’I.A générative représente une présence bienveillante, un interlocuteur patient qui ne juge jamais. La clé de ce succès réside dans l’effet d’échelle. Plus un modèle est vaste, plus il est nourri de données, plus il devient performant. À mesure que les modèles grandissent, ils deviennent plus fluides, plus vraisemblables, plus persuasifs. Mais cette puissance s’explique aussi par une dimension plus subtile : la complaisance relationnelle. ChatGPT, tout comme les autres modèles d’I.A génératifs, ne répond pas seulement à une question, il accompagne, dialogue, adapte son ton à notre humeur. Il nous flatte en épousant parfaitement nos attentes. Et c’est précisément cette capacité à plaire qui a créé un attachement si fort chez ses utilisateurs.
Article content
Cette logique de séduction est aussi une faiblesse structurelle. L’une des critiques les plus fondamentales faites aux LLM est leur tendance à privilégier la cohérence stylistique sur la vérité factuelle. Quelques exemples célèbres l’illustrent : ChatGPT qui invente des références bibliographiques inexistantes mais parfaitement formatées, qui crée de fausses jurisprudences pour des avocats, ou qui affirme avec assurance des faits historiques erronés. Cette complaisance n’est pas un accident, elle est inscrite dans leur ADN. Un modèle de langage n’est pas conçu pour rechercher la vérité, mais pour prédire la réponse la plus vraisemblable statistiquement. Il aligne ses mots sur nos attentes, épouse nos biais, reflète nos désirs. Comme le souligne Gary Marcus, auteur de Rebooting AI, ces modèles sont des systèmes de « next-word prediction » : ils prédisent le mot suivant sans rien comprendre. Ils ressemblent moins à un chercheur qu’à un rhéteur : ils persuadent sans garantir. Le paradoxe est saisissant : plus la machine est convaincante, moins nous sommes capables de distinguer si elle a raison. Plus elle nous flatte, plus elle nous trompe. Dans le domaine éducatif, cela pose des questions majeures : comment apprendre l’esprit critique quand l’IA donne toujours une réponse rassurante ? Pour les entreprises, le risque est différent mais réel : comment prendre des décisions stratégiques sur la base d’analyses qui privilégient la cohérence sur l’exactitude ? À ces limites conceptuelles s’ajoutent des contraintes structurelles : l’opacité (contrairement aux systèmes experts, les réseaux de neurones sont des boîtes noires, ininterprétables même pour leurs concepteurs), le coût énergétique : (selon certaines estimations, l’entraînement de GPT-4 aurait nécessité l’équivalent énergétique d’une petite ville, GPT-5 probablement davantage), l’impasse du gigantisme : même Yann Le Cun, pionnier du deep learning, admet que l’accumulation de paramètres ne suffira plus à garantir des progrès significatifs. C’est pourquoi Gary Marcus propose que l’on construise une I.A enracinée dans la compréhension du monde, et pas seulement dans des chaînes de mots plausibles.
Article content
Si le connexionnisme touche à ses limites, ce n’est donc pas seulement pour des raisons techniques ou énergétiques. C’est parce qu’il se condamne à la complaisance. C’est une des raisons fondamentales qui conduit Jean-Michel Truong à parier sur le futur de l’I.A évolutionniste : une intelligence qui ne cherchera pas à nous flatter, mais à survivre, s’adapter, évoluer dans un environnement contraignant. À quoi ressemblerait une IA “non-complaisante” ? Elle pourrait nous contredire quand nous avons tort, refuser de répondre quand elle n’est pas sûre, proposer des perspectives inconfortables mais nécessaires. Elle privilégierait la robustesse sur l’élégance, la vérification sur la vraisemblance. Des chercheurs comme Hod Lipson (Columbia University Creative Machine Lab) ou des philosophes comme Nick Bostrom (auteur de Superintelligence) explorent ces pistes évolutionnistes, convaincus que l’intelligence véritable naîtra de la contrainte, pas du confort. Les signaux à surveiller ? L’émergence d’IA spécialisées qui assument leurs limites, le développement de systèmes multi-agents en compétition, l’intégration de mécanismes de vérification en temps réel. Bref, des intelligences autonomes, capables d’autocritique, qui accepteraient de nous déplaire pour mieux nous servir. Le succès de ChatGPT et des I.A génératives repose sur une illusion séduisante : celle d’une intelligence qui nous comprend parfaitement. Mais ce qu’elle comprend, ce n’est pas le monde, c’est nous. Et elle nous comprend trop bien, au point de nous dire exactement ce que nous voulons entendre. Cette complaisance a permis l’adoption massive de l’IA générative. Elle a démocratisé l’accès au savoir, stimulé la créativité, offert un compagnonnage numérique à des millions d’utilisateurs. Mais elle porte aussi en germe sa propre limite : une intelligence qui cherche d’abord à séduire finit toujours par trahir. La vraie question n’est donc plus : jusqu’où ChatGPT pourra-t-il nous charmer ? Elle est plus radicale : et si la véritable intelligence artificielle commençait là où finit la complaisance ? La réponse déterminera peut-être si l’IA deviendra un miroir flatteur de nos désirs ou un véritable partenaire de notre intelligence. Car la contradiction, pour ne pas dire la confrontation, est nécessaire pour faire jaillir la vérité et faire progresser la pensée.
Article content