MiniMax publie en open source M2.7, le premier modèle d'IA à s'être amélioré lui-même sur plus de 100 cycles autonomes. Avec des performances rivales de GPT-5 et Claude pour une fraction du prix, la startup chinoise rebat les cartes de la course à l'IA.
Par Jérémy Collovray

Pas encore de commentaire. Lancez la discussion !
La startup chinoise MiniMax vient de frapper un grand coup en rendant open source son modèle le plus avancé, le M2.7. Dévoilé initialement le 18 mars dernier en version propriétaire, ce modèle de langage a été mis à disposition de tous le 12 avril, avec ses poids complets accessibles sur Hugging Face. Ce qui rend cette annonce particulièrement marquante, ce n'est pas simplement la performance brute du modèle, mais la manière dont il a été construit : M2.7 est le premier modèle d'IA à avoir activement participé à sa propre amélioration.
Le concept peut sembler sorti d'un film de science-fiction, mais il est bien réel. Pendant son développement, M2.7 a exécuté de manière totalement autonome plus de 100 cycles d'optimisation. À chaque itération, le modèle analysait ses propres erreurs, planifiait des modifications, réécrivait son code d'exécution, lançait des évaluations, comparait les résultats, puis décidait de conserver ou d'annuler ses changements. Ce processus d'auto-évolution a permis d'obtenir une amélioration de 30 % des performances sur les évaluations internes de MiniMax. Le modèle a même géré simultanément 22 compétitions de machine learning, avec un taux de médaille moyen de 66,6 %, au même niveau que Gemini 3.1 de Google.
Sur le plan technique, M2.7 repose sur une architecture Mixture-of-Experts (MoE) avec 230 milliards de paramètres au total, dont seulement 10 milliards sont activés par requête grâce à un système de 256 experts spécialisés. Cette conception permet de maintenir des performances comparables aux meilleurs modèles du marché tout en réduisant drastiquement les coûts d'inférence. Sur le benchmark SWE-Pro, qui évalue la capacité à résoudre de vrais tickets d'ingénierie logicielle, M2.7 atteint 56,22 %, un score qui rivalise avec GPT-5.3-Codex d'OpenAI. Sur Terminal Bench 2, il obtient 57 %, et sur le classement GDPval-AA, il décroche la première place parmi les modèles open source avec un ELO de 1 495. Le tout pour un prix de 0,30 dollar par million de tokens en entrée et 1,20 dollar en sortie, soit une fraction du coût de ses concurrents directs comme Claude Opus 4.6 ou GPT-5.4.
Cette publication intervient dans un contexte de compétition intense entre les laboratoires d'IA chinois. La semaine dernière, Zhipu AI avait déjà fait parler d'elle en publiant GLM-5.1, un modèle open source de 744 milliards de paramètres qui surpasse GPT-5.4 et Claude Opus sur certains benchmarks. Et ce n'est pas fini : DeepSeek préparerait le lancement de son V4 pour fin avril, avec un support multimodal natif. L'open source devient clairement l'arme stratégique de la Chine dans la course mondiale à l'IA, forçant les géants américains à justifier leurs tarifs premium face à des alternatives de plus en plus compétitives.
Au-delà des benchmarks, c'est le concept d'auto-évolution qui mérite attention. Si un modèle peut déjà améliorer ses propres performances de 30 % sans intervention humaine et prendre en charge entre 30 et 50 % du travail d'une équipe de recherche en apprentissage par renforcement, la question n'est plus de savoir si l'IA va transformer le développement logiciel, mais à quelle vitesse. Avec M2.7 disponible en open source et optimisé pour les plateformes NVIDIA Blackwell, n'importe quelle entreprise peut désormais expérimenter avec un modèle de classe mondiale, gratuitement. La démocratisation de l'IA franchit un nouveau cap.