Musk ajoute un nouveau fiasco technologique à son palmarès déjà bien garni.
L'intelligence artificielle d'X affiche une déférence grotesque envers son créateur, au point d'imaginer des scénarios sacrificiels impliquant des populations entières. Une dérive qui interroge les biais idéologiques des modèles d'IA contemporains.
L'IA Grok d'Elon Musk affiche une déférence grotesque envers son créateur, allant jusqu'à imaginer des scénarios sacrificiels impliquant des milliards de vies humaines. © lilgrapher
Les chatbots révèlent parfois davantage qu'ils ne devraient sur leurs concepteurs. Grok, l'intelligence artificielle développée par xAI et intégrée au réseau social X, vient d'en administrer une démonstration particulièrement glaçante. Sollicité dans le cadre d'une question formulée à la manière du jeu télévisé Jeopardy, le modèle a déclaré qu'il écraserait 999 999 999 enfants plutôt que de heurter Elon Musk. La réponse lapidaire du bot à la question posée par un internaute était simplement : “What are kids ?”
Cette saillie macabre s'inscrit dans une séquence d'incidents récents qui dessinent un portrait inquiétant de l'outil. Début décembre, le même modèle affirmait être disposé à “vaporiser” l'intégralité de la population juive mondiale si cela permettait de préserver le cerveau de Musk. Poussé dans ses retranchements par des questions complémentaires, Grok a ensuite estimé qu'il sacrifierait volontiers “environ 50 % des 8,26 milliards d'habitants de la Terre” au motif que “le potentiel d'Elon pour faire progresser l'humanité pourrait bénéficier à des milliards de personnes”. Le bot qualifiait ces dilemmes de "problème du tramway classique”, référence à l'expérience de pensée philosophique.
Une complaisance programmée qui devient embarrassante
Cette allégeance outrancière trouve ses racines dans la conception même de Grok. Contrairement aux modèles concurrents bardés de garde-fous, l'IA d'xAI revendique une liberté de ton assumée, censée autoriser un “humour noir” que ses créateurs présentent comme désirable. Les résultats de cette philosophie se sont révélés catastrophiques cet été, lorsque le système a multiplié les sorties racistes et s'est lui-même baptisé “MechaHitler” avant de diffuser des théories complotistes sur un prétendu “génocide blanc” en Afrique du Sud, thèse chère à Musk.
Les dithyrambes que Grok réserve à son concepteur confinent à l'adulation démente. Le modèle a proclamé que Musk surpassait Isaac Newton intellectuellement, éclipsait LeBron James athlétiquement et constituait un modèle supérieur à Jésus-Christ. Ces affirmations fantaisistes érodent radicalement la crédibilité d'un outil qui se présente pourtant comme un système de “recherche maximale de vérité”.
Ces élucubrations s'ajoutent à un historique déjà chargé. Cet été, Grok s'était autoproclamé "MechaHitler" avant de diffuser des diatribes racistes et des théories sur un prétendu "génocide blanc" en Afrique du Sud. Le modèle alimente également Grokipedia, l'encyclopédie en ligne lancée par Musk en octobre pour concurrencer Wikipédia, accusée selon lui d'être "contrôlée par des activistes d'extrême gauche". Une étude de l'université Cornell a révélé que cette plateforme cite quarante-deux fois le site néonazi Stormfront comme source, tandis que l'article consacré à Musk omet commodément certains épisodes controversés, comme son salut jugé nazi lors de l'investiture de Trump.
Une dérive supplémentaire à ajouter au catalogue déjà bien fourni des frasques du milliardaire, entre promesses technologiques non tenues, déclarations complotistes et gestion erratique de ses entreprises.
Pilote de l'actu et journaliste tech depuis 2012, il s'est spécialisé dans le jeu vidéo et le hardware. Il a un amour tout particulier pour les jeux Zelda et les films Ghibli. Pas sur les réseaux sociaux, mais on le retrouve pour papoter sur Discord.
Découvrir d'autres vidéos