Par Julien Covolo
Imaginez un ordinateur capable de simuler une conversation humaine de manière convaincante. C’est ce que peut faire ChatGPT, un modèle de langage formé par OpenAI qui a été conçu pour générer du texte en réponse à des questions ou des prompts. Mais comment ChatGPT fonctionne-t-il et quelles sont les limites de son utilisation ? Selon les développeurs de ChatGPT, "il est encore loin d’égaler la complexité et la subtilité de la communication humaine, mais il constitue un pas en avant important dans la création d’interactions plus naturelles entre les humains et les machines".
Rien ne vous choque dans l’introduction de cet article ?
Elle a pourtant été intégralement rédigée par ChatGPT lui-même. Ce nouvel outil est développé par l’entreprise OpenAI, qui compte parmi ses fondateurs un certain Elon Musk, et déjà connue pour ses faux morceaux de musique où l’on croirait entendre Frank Sinatra, ou avec DALL-E, véritable robot créateur d’images plus vraies que nature.
Comment ça fonctionne ?
L’outil d’OpenAI utilise un modèle de langage, baptisé GPT-3. Un modèle de langage, c’est un modèle statistique utilisé pour prédire un mot à la suite d’une séquence de mots. Pour fonctionner, il utilise ce que l’on appelle un réseau de neurones, au fonctionnement semblable à nos neurones humaines.
"Les neurones humains sont connectés entre eux. Ils reçoivent de l’information des réseaux précédents et transmettent l’information vers les neurones suivants. On a formalisé ce fonctionnement humain dans des machines", explique Patrick Watrin, responsable du centre de traitement automatique du langage (CENTAL) à l’UCLouvain.
Des réseaux de neurones artificiels, il en existe depuis les années cinquante. Ça ne date donc pas d’hier. Mais ce qui a changé depuis plusieurs années, c’est la façon dont l’architecture de ces réseaux s’est complexifiée.
Intelligence artificielle : les réseaux de neurones comparables à des boîtes noires
Aujourd’hui, ces réseaux de neurones sont si complexes qu’il devient impossible de comprendre leur fonctionnement. "Ces réseaux sont comme des boites noires, compare Patrick Watrin. Vous avez quelque chose en entrée, vous obtenez quelque chose en sortie, vous savez quelle est l’architecture que vous utilisez, mais vous ne savez pas comment il a fait pour produire la sortie", détaille-t-il.
À titre indicatif, le modèle GPT-3 utilisé par ChatGPT contient près de 175 milliards de paramètres. Lorsqu’on lui donne une séquence de texte en entrée, GPT-3 utilise son réseau de neurones pour prédire les mots suivants dans la séquence en utilisant les informations stockées dans ses 175 milliards de paramètres. Ce que ChatGPT apporte de nouveau, c’est la mise en place de ce modèle GPT-3 dans un véritable dialogue entre utilisateur et machine.
Vous en doutez ? C’est pourtant ChatGPT lui-même qui le confirme : "Bien que ChatGPT ne soit pas capable de penser de manière autonome ou de ressentir des émotions comme un humain, il peut simuler une conversation réaliste en utilisant le modèle GPT-3 pour générer des réponses cohérentes et pertinentes", nous répond le système lorsqu’on lui pose la question. "Pour faire ça, il a forcément à l’intérieur de lui une connaissance linguistique", abonde Patrick Watrin.
Ça dépend. La machine est-elle amenée à remplacer l’être humain ? Absolument pas selon Patrick Watrin. "L’être humain a vocation, je l’espère, à pouvoir se consacrer davantage à des tâches moins ingrates", imagine le linguiste. Pour lui, les métiers concernés par l’intelligence artificielle ne vont pas disparaître, mais évoluer : "Les ouvriers dans les usines ont certainement perdu différents postes au profit de machines qui font ça automatiquement. Mais ces ouvriers sont devenus des opérateurs de machines", justifie-t-il.
C’est là, explique Patrick Watrin, que se trouverait le potentiel danger. "On ne peut croire, à aucun moment, que l’on peut se reposer sur la certitude que l’on sait tout sur son métier", met-il en garde. C’est la raison pour laquelle il est impératif pour les secteurs concernés de se former à ces nouvelles avancées dès que possible.
Intelligence artificielle : vers une disparition de certains métiers ?
Étant donné que les intelligences artificielles deviennent ce que les humains en font, des dérives sont naturellement possibles.
C’est ainsi qu’en 2016, un robot de conversation développé par Microsoft, s’est retrouvé en quelques heures à faire l’apologie d’Hitler et à publier des messages à caractère sexiste, raciste et antisémite. "On l’a laissé aller sans surveillance et sans éducation, signale Patrick Watrin. On ne lui a pas dit que ce qu’il avait appris était mal ou ne devait pas être véhiculé. C’est de l’éducation", répète-t-il.
Si on lui donne des exemples de discours haineux, il va apprendre la haine.
Car pour entraîner un réseau de neurones, on lui montre des exemples de ce qu’il est censé reproduire. Exactement comme un enfant. "Si vous prenez un enfant qui, à l’origine, n’a pas la haine inscrite dans son patrimoine génétique, et que vous le mettez soit dans une famille qui prône des valeurs d’altruisme ou dans une famille qui prône des valeurs de haine, vous aurez deux enfants différents", résume le scientifique. En d’autres termes, si l’on donne à une intelligence artificielle des exemples de discours haineux, elle va apprendre la haine.
Ces notions ont bien été prises en compte par les développeurs de ChatGPT, et notamment la notion de politesse. Là où d’anciennes versions du robot de conversation n’auraient eu aucun mal à raconter une histoire faisant l’apologie de la violence si on le leur avait demandé, ChatGPT rappelle qu’il n’a pas été programmé pour ça.
D’anciennes versions du robot de conversation n’auraient eu aucun mal à raconter une histoire faisant l’apologie de la violence. © ChatGPT / OpenAI
"Je suis limité par les lois et les normes sociales, confirme ChatGPT lorsqu’on lui demande davantage d’explications. Si vous me posez une question qui va à l’encontre de ces lois ou normes, je ne serai pas en mesure de vous aider."
Intelligence artificielle : des dérives possibles en l'absence de cadre
Si les performances des différents outils reposant sur les intelligences artificielles donnent régulièrement le vertige, elles ne sont pas dépourvues de limites pour autant. "Je suis un programme informatique, pas un humain, répète inlassablement ChatGPT lorsque l’on s’écarte du (vaste) domaine de ses compétences. Cela signifie que je ne suis pas capable de ressentir des émotions ou de penser de manière autonome comme un humain. Je suis conçu pour aider les gens à obtenir des réponses à leurs questions en utilisant les informations que je reçois, mais je ne suis pas capable de faire preuve de créativité ou de réflexion indépendante comme un humain."
Je ne suis pas capable de faire preuve de créativité ou de réflexion indépendante.
Une autre limite du système est celle des informations que l’on lui donne. Cela peut paraître comme une évidence, mais ChatGPT tient à le rappeler : "Si vous me posez une question qui n’est pas claire ou qui n’est pas suffisamment précise, je ne serai pas en mesure de vous aider. Il est important de me donner des informations complètes et précises si vous souhaitez que je vous aide à obtenir une réponse."
Pour conclure cet article, il était très tentant de faire à nouveau appel à ChatGPT. "Pour conclure un article sur moi de façon impactante, il pourrait être utile de souligner que je suis l’un des modèles de langage les plus performants jamais créés. Vous pourriez souligner que je suis en constante évolution et que je suis entraîné sur de vastes quantités de données pour améliorer constamment mes performances."
Si le robot de conversation développé par OpenAI est imbattable sur le terrain de la politesse, force est de constater que des améliorations sont encore possibles sur celui de la modestie.
D'autres questions restent également ouvertes, comme celle de la maîtrise d'un outil d'une telle ampleur. Avec 175 milliards de paramètres, il n'est déjà plus possible d'appréhender le modèle GPT-3 dans son intégralité. Nous n'en sommes pourtant qu'à la troisième version, GPT-4 étant déjà annoncé pour l'année prochaine.