Selon les récents travaux du laboratoire de recherche Giskard, les grands modèles de langage (LLM) utilisés dans l'intelligence artificielle souffrent d'une forme de dissonance cognitive préoccupante. Bien que ces modèles soient généralement performants pour détecter et identifier les stéréotypes, ils continuent néanmoins d'en produire dans les contenus qu'ils génèrent eux-mêmes.
Cette incohérence soulève de nombreuses questions sur les biais inhérents à ces technologies d'IA, pourtant censées être neutres et objectives. Comment est-il possible que des systèmes aussi sophistiqués puissent à la fois reconnaître et perpétuer des préjugés ? Les chercheurs de Giskard peinent encore à expliquer clairement ce phénomène complexe.
Il semble que malgré tous les progrès accomplis, les LLM restent profondément ancrés dans les schémas de pensée de leurs concepteurs et des données sur lesquelles ils ont été entraînés. Un défi majeur à relever pour rendre ces intelligences artificielles véritablement impartiales et fiables dans leurs productions.