Les récentes études menées par l'équipe de Giskard ont mis en lumière une problématique inquiétante concernant les grands modèles de langage (LLM) : bien que ces intelligences artificielles soient parfois capables d'identifier efficacement les stéréotypes, elles continuent d'en générer dans les contenus qu'elles produisent. Cette incohérence, qualifiée de "dissonance cognitive", soulève de nombreuses questions sur les biais profondément ancrés dans ces systèmes.
Les résultats du benchmark Phare de Giskard révèlent en effet que les LLM, malgré leurs prouesses, peinent encore à se défaire complètement des préjugés et stéréotypes présents dans leurs données d'entraînement. Cette problématique met en lumière les défis complexes auxquels sont confrontés les concepteurs de ces technologies dans leur quête d'une neutralité et d'une objectivité totales.
Au-delà des enjeux éthiques, cette dissonance cognitive soulève également des interrogations sur la fiabilité et la crédibilité des contenus générés par les LLM. Comment peuvent-ils être considérés comme des sources d'information fiables si leurs propres productions véhiculent des biais et clichés ? Les équipes de recherche doivent redoubler d'efforts pour résoudre cette épineuse question et garantir l'intégrité de ces outils en pleine expansion.