L'intelligence artificielle a investi le champ de la vidéo surveillance. Mais les spécialistes craignent que sa complexité ne soit source d'erreurs.
Alors que l’intelligence artificielle ne cesse de se complexifier et d’investir des domaines chaque jour plus nombreux, les experts craignent que les processus à l’oeuvre ne leur échappent complètement. Au risque d’erreurs catastrophiques.
C’est un étrange phénomène qui ne cesse d’intriguer les chercheurs qui s’intéressent à l’évolution de l’intelligence artificielle. Comme le résume le journal américain «Vice», «l’IA ne se contente plus de copier l’intelligence humaine, elle reflète aussi désormais son inexplicabilité.» Au point que les développeurs ont de plus en plus de mal à comprendre comment elle fonctionne et à déterminer pourquoi elle obtient tel résultat plutôt qu’un autre.
Les experts recommandent donc aux développeurs de faire «un pas de côté» et de réfléchir au pourquoi et au comment une IA obtient un résultat plutôt qu’à améliorer sans cesse l’acuité et la rapidité des processus.
La suite après cette publicité
«Si l’IA devient une boîte opaque, nous ne parviendrons plus à comprendre les causes d’un échec, ni à améliorer la sécurité du système» explique Roman V. Yampolskiy, professeur de science informatique à Université de Louisville, dans un article au titre en forme de constat «Inexplicabilité et incompréhensibilité de l’intelligence artificielle». «De plus, ajoute le chercheur, si nous nous habituons à accepter les réponses de l’IA comme des paroles d’oracles ne nécessitant pas d’explication, alors nous serons incapables de vérifier si ces résultats ne sont pas biaisés ou manipulés.»
L’un des exemples le plus spectaculaire de ce risque est la reconnaissance faciale : en 2018, une étude a déterminé que l’IA avait beaucoup de plus de difficulté à reconnaître un visage féminin à la peau sombre qu’un visage masculin à la peau claire. Dans le cadre d’une utilisation par la police et la justice, ce système est donc potentiellement source d’erreurs judiciaires. Le problème est similaire avec les IA capables de poser un diagnostic à partir de l’imagerie médicale : «On craint de plus en plus que ces systèmes reflètent et amplifient les préjugés humains, et réduisent la qualité de leurs performances dans les populations historiquement mal desservies, comme les patients de sexe féminin, les patients noirs ou les patients de faible statut socio-économique» révèle une étude parue dans la revue Nature.
Abandonner l'illusion de l'explication
Toutefois, d’autres experts craignent qu’à trop vouloir comprendre et interpréter les processus de l’IA, elle en vienne à perdre son efficacité…
La suite après cette publicité
«Peut-être que la réponse est d'abandonner l'illusion de l'explication, et de se concentrer plutôt sur des tests plus rigoureux de la fiabilité, des biais et des performances des modèles, comme nous essayons de le faire avec les humains», s’interroge Jeff Clune, Professeur de science informatique at l’Université de Colombie britannique. Mais la plupart des spécialistes s’accordent sur un point : il est bien trop tôt pour laisser l’IA décider d’embaucher ou non une personne, d’accorder ou de refuser un prêt ou d’envoyer quelqu’un en prison.