Le rapport Stanford AI Index 2026 publié cette semaine révèle une IA qui surpasse les docteurs en sciences mais échoue à lire l'heure. Derrière les records de performance, une crise de confiance s'installe et un gouffre se creuse entre experts enthousiastes et citoyens méfiants.
Par Jérémy Collovray

Pas encore de commentaire. Lancez la discussion !
Stanford vient de publier son neuvième rapport annuel AI Index 2026, et le constat est vertigineux. Jamais les modèles d'intelligence artificielle n'ont été aussi puissants. Jamais la confiance du public n'a été aussi basse. En trois ans, l'IA générative a conquis 53 % de la population mondiale, une vitesse d'adoption qui pulvérise celle du PC et d'internet. Mais dans le même souffle, seules 23 % des personnes interrogées voient d'un œil positif son impact sur le marché du travail. Entre les experts (73 % d'optimistes) et le grand public, un gouffre s'est ouvert.
Sur SWE-Bench Verified, le benchmark qui demande aux modèles de résoudre de vrais bugs logiciels sur GitHub, les scores sont passés de 60 % à près de 100 % en une seule année. Claude Opus 4.6 et Gemini 3.1 Pro franchissent désormais la barre des 50 % sur Humanity's Last Exam, un examen conçu par des experts académiques pour être quasi-impossible. Les modèles surpassent les doctorants sur des questions de physique et de mathématiques de compétition. Et pourtant, le même rapport révèle une faille comique : ces systèmes n'arrivent qu'à 50,1 % de précision quand on leur demande de lire un réveil à aiguilles. Comme le résume un chercheur, c'est comme avoir un génie mathématique incapable de nouer ses lacets.
Le plus alarmant n'est pas technique, il est social. L'indice de transparence des modèles fondateurs a chuté de 58 à 40 points en un an : les grands laboratoires documentent de moins en moins ce qu'ils construisent. Les États-Unis arrivent derniers au classement mondial de la confiance dans la régulation gouvernementale de l'IA, avec seulement 31 % de citoyens qui jugent leur gouvernement capable de l'encadrer. Plus surprenant encore : le nombre de chercheurs en IA qui choisissent de s'installer aux États-Unis a chuté de 89 % depuis 2017, dont 80 % sur la seule dernière année. La Silicon Valley pompe 285 milliards de dollars d'investissement privé — vingt-trois fois plus que la Chine — mais elle perd les cerveaux qui devraient les dépenser.
Sur le terrain, les chiffres du rapport dessinent une réalité profondément inégale. Les gains de productivité attribués à l'IA atteignent 14 à 26 % dans le support client et le développement logiciel, et grimpent jusqu'à 72 % dans le marketing. Mais l'adoption réelle des agents autonomes en entreprise reste à un chiffre dans presque tous les départements. Parallèlement, l'emploi des développeurs américains de 22 à 25 ans a plongé de près de 20 % depuis 2024, première génération sacrifiée sur l'autel de l'automatisation du code. Aux États-Unis, 4 étudiants sur 5 utilisent déjà l'IA pour leurs devoirs, mais seulement 6 % des enseignants disent avoir une politique claire sur son usage.
Le rapport Stanford condense ce qu'on sentait diffusément : l'IA est à la fois la technologie la plus rapidement adoptée de l'histoire et celle qui creuse les fractures les plus profondes entre ceux qui la conçoivent, ceux qui en profitent, et ceux qui la subissent. Le décalage entre 23 % d'optimistes dans le public et 73 % chez les experts n'est pas un simple écart d'opinion : c'est le signal que l'industrie et la société regardent désormais deux films différents. Et tant que cet écart ne se réduira pas, chaque nouvelle percée technique risque d'alimenter autant l'anxiété que l'émerveillement.