Table of Contents
Une récente étude menée par l’équipe de Leyla Isik, professeure en sciences cognitives à l’université Johns Hopkins, s’est intéressée à la capacité des intelligences artificielles à comprendre les interactions sociales humaines. En confrontant les jugements des IA avec ceux d’observateurs humains, les chercheurs ont mis en lumière les limites actuelles des machines dans l’analyse de nos comportements sociaux.
Une expérience à grande échelle sur la perception sociale des IA
Pour évaluer la compréhension des interactions sociales par l’intelligence artificielle, les chercheurs ont testé plus de 350 modèles d’IA, spécialisés dans l’analyse vidéo, d’images ou encore de langage. Ces systèmes ont été confrontés à de courtes séquences vidéo de trois secondes, illustrant des situations sociales variées. Parallèlement, des participants humains ont évalué l’intensité des interactions observées selon plusieurs critères, sur une échelle de 1 à 5.
L’objectif principal était de comparer les jugements humains et artificiels afin de mieux cerner les divergences de perception et d’identifier les failles des algorithmes dans l’interprétation des comportements sociaux.
Une « cécité artificielle » face aux dynamiques sociales
Les évaluations humaines ont révélé une cohérence remarquable, témoignant d’une compréhension fine et partagée des interactions. En revanche, les modèles d’IA ont rencontré d’importantes difficultés à reproduire ces jugements. Ceux spécialisés dans la vidéo apparaissent particulièrement inefficaces pour décrire fidèlement les scènes observées.
Même les IA basées sur des images fixes, alimentées par plusieurs extraits issus de chaque vidéo, peinent à identifier si les personnages interagissent. Les modèles de langage, qui s’appuient parfois sur des descriptions humaines, performent un peu mieux, mais restent bien en deçà du niveau des observateurs humains.
Implications pour l’intégration des IA dans la vie quotidienne
Selon Leyla Isik, cette incapacité à comprendre les dynamiques sociales freine considérablement l’intégration des IA dans des contextes réels. « Toute IA censée interagir avec des humains, comme une voiture autonome par exemple, doit être capable de comprendre les intentions, les actions et les objectifs des personnes à proximité », souligne-t-elle.
Elle insiste sur le fait que les systèmes actuels ne parviennent pas encore à reconnaître correctement les comportements humains, ce qui limite leur utilité pratique dans les interactions sociales.
Une explication neuroscientifique à cette limite
Les chercheurs avancent que cette difficulté pourrait s’expliquer par la manière dont sont conçus les réseaux de neurones artificiels. Ces modèles sont principalement inspirés des régions cérébrales humaines dédiées au traitement des images statiques, alors que l’analyse de scènes sociales dynamiques mobilise d’autres zones du cerveau.
Cette divergence structurelle serait à l’origine de ce que les scientifiques qualifient de « cécité artificielle ». Comme l’explique Kathy Garcia, coautrice de l’étude : « La vie réelle n’est pas figée. Il est indispensable que l’IA comprenne l’histoire qui se déroule dans une scène. »
Des machines encore loin de saisir les subtilités sociales
En définitive, cette recherche révèle un écart majeur entre la perception des scènes sociales en mouvement par les humains et celle des intelligences artificielles. Malgré leur puissance de calcul et leur capacité à traiter d’importantes quantités de données, les IA peinent encore à déchiffrer les subtilités et les intentions implicites qui sous-tendent nos interactions sociales.
Malgré des avancées technologiques impressionnantes, elles demeurent loin de comprendre avec précision les nuances de nos échanges humains.