Intelligence artificielle ©Copyright (c) 2023 Nan_Got/Shutterstock. No use without permission.
Une grande partie des voix que nous entendons autour de l'IA ne tarissent pas d'éloges sur la révolution que l'IA générative et les LLM (Large Language Models) représentent. Ces commentaires sont en large partie mérités : il s'agit d'un bond en avant des capacités que même les spécialistes ne voyaient pas arriver si rapidement il y a seulement 2 ans… À présent, c'est une ouverture dans laquelle s'engouffrent des milliers de chercheurs, développeurs… et des milliards d'investissements.
Pourtant, si on écoute plus attentivement, quelques voix chagrines dénoncent des limitations de la vague actuelle d'IA : par la manière (statistique) dont elles sont construites ; elles restent susceptibles de phénomènes que l'on appelle des "hallucinations" : l'IA parle de choses qui n'existent tout simplement pas mais qui ressemblent à des éléments vraisemblables. Certains critiques particulièrement vocaux comme Gary Marcus, pionnier de l'IA et ex-prof à NYU, sont radicaux et considèrent qu'en dehors de certaines applications de génération de texte, les IA actuelles nous mènent dans une impasse et que les architectures actuelles ne parviendront jamais à l'AGI, l'IA Généralisée, comparable à l'être humain. "Qui voudrait confier le volant d'un bus à un chauffeur qui pourrait avoir des hallucinations, ne serait-ce qu'avec une probabilité d'un sur un million ?", argumentent en gros ces opposants.
Bien entendu, l'industrie est consciente de ces limitations et de gros efforts de R&D sont en cours pour réduire au maximum les risques d'hallucinations. On peut citer sommairement quelques pistes. La principale, c'est ce que l'on appelle RAG : Retrieval-Augmented Generative AI, qui consiste à complémenter l'approche statistique des IA par des requêtes structurées assez semblables à la gestion de bases de données dans l'informatique classique. Mais d'autres pistes sont explorées comme CoVe (Chain-of-Verification) ou CoK (Chain-of-Knowledge), des techniques de prompting qui consistent à demander à l'IA de détailler chaque maillon d'une chaîne de raisonnement. Ceci peut, de surcroît, être couplé à l'architecture dite par "agents" où il existe deux ou plusieurs instances d'IA qui se questionnent et se challengent les unes les autres (à la façon d'une dialectique humaine) pour parvenir à un résultat bien mieux établi.
Sur le même sujetLa France inflige 250 millions d'euros d'amende à Google concernant les droits voisins L'Autorité de la concurrence française a sanctionné Google d'une amende de 250 millions d'euros "pour le non-respect de certains de ses engagements pris en juin 2022" concernant les droits voisins, a-t-elle annoncé dans un communiqué mercredi.Dernières dépêches Le géant de l'IA Nvidia dévoile une "superpuce" beaucoup plus performante Le spécialiste américain des semi-conducteurs Nvidia a dévoilé lundi ses tout derniers modèles de puces électroniques destinés à accompagner la révolution de l'intelligence artificielle (IA), dont il cherche à consolider sa position de fournisseur crucial.Entreprises & Start-upVidéo