Il se définit comme un « fondu d’IA » depuis ses études à Paris, à la fin des années 1970. Le chercheur français Yann Le Cun, pionnier des réseaux de neurones artificiels – ces systèmes qui, comme ChatGPT, sont entraînés à classer des milliards de données pour répondre aux questions qui leur sont posées –, a rejoint en 2013 la maison mère de Facebook, Meta, où il a créé le laboratoire de recherche FAIR (Facebook Artificial Intelligence Research)
L’auteur de Quand la machine apprend (Odile Jacob, 400 pages, réédité en avril 2023, 11,50 euros) a été récompensé du prix Turing 2018 (considéré comme le Nobel de l’informatique), aux côtés des chercheurs canadiens Geoffrey Hinton et Yoshua Bengio, pour leurs travaux précurseurs sur l’IA.
Yoshua Bengio et Yann Le Cun sont des « amis proches », souligne ce dernier, qui ont longtemps fréquenté les mêmes laboratoires. Ce qui ne les empêche pas de porter aujourd’hui des regards opposés sur les enjeux éthiques que soulèvent les récentes applications d’IA. Quand le premier considère que l’agent conversationnel ChatGPT « passe haut la main le test de Turing », et réclame une pause dans le déploiement de ces systèmes, Yann Le Cun estime, au contraire, que l’outil n’est « pas révolutionnaire » et qu’« il faut accélérer », car vouloir ralentir la recherche relève, selon lui, de l’« obscurantisme ».
Parce que leur débat met en lumière, à la croisée de l’éthique des sciences, de l’économie et du politique, les enjeux cruciaux de gouvernance de l’IA, nous les avons interrogés tous les deux et publions, de façon concomitante, leurs entretiens.
Vous dites que ChatGPT n’est pas une révolution. Pourquoi ?
C’est un bon produit dont les capacités peuvent paraître surprenantes, mais il n’est pas révolutionnaire parce que les technologies qu’il utilise sont connues depuis plusieurs années. Comme les autres systèmes de langage de grande taille, ses réseaux de neurones artificiels sont entraînés à l’aide d’énormes quantités de textes, de l’ordre de mille milliards de mots, quasiment la totalité des textes qui existent sur Internet. La machine a appris à manier la langue. On peut même dire qu’elle a acquis un certain niveau de raisonnement, en tout cas elle peut adapter ce qu’elle a lu à la question qui lui est posée.
Ces capacités donnent l’impression que le système est intelligent, mais en fait elles restent superficielles. ChatGPT n’est pas intelligent comme peut l’être un humain. C’est un outil de prédiction, qui associe entre eux des mots apparaissant de façon la plus probable dans le corpus qui a servi à l’entraîner, afin de continuer un texte. Personne ne peut garantir que ce qui sort de la machine est factuel, non toxique, compréhensible.
Il vous reste 77.27% de cet article à lire. La suite est réservée aux abonnés.