
Zhipu AI dévoile GLM-5 : un modèle open-source formé sans puces NVIDIA
L'écosystème de l'intelligence artificielle vient de vivre un séisme discret mais majeur. Zhipu AI (Z.ai) a officialisé le lancement de GLM-5, un nouveau modèle de langage qui ne se contente pas d'égaler les leaders du marché sur le papier : il change les règles du jeu. Avec une architecture Mixture-of-Experts de 744 milliards de paramètres, ce modèle open-source se distingue par une prouesse technique inédite à cette échelle : un entraînement réalisé intégralement sur des puces chinoises.
Une architecture repensée pour la performance
GLM-5 ne suit pas une simple courbe de progression linéaire. Il adopte une architecture Mixture-of-Experts (MoE) optimisée, passant de 355 à 744 milliards de paramètres totaux, dont environ 40 milliards sont actifs par token. Concrètement, cela permet au modèle d'atteindre une capacité de raisonnement supérieure tout en maintenant des coûts d'inférence contenus. On retrouve ici une logique similaire à celle explorée par d'autres acteurs majeurs, mais Zhipu AI pousse le concept plus loin en intégrant le mécanisme DeepSeek Sparse Attention (DSA). Cette technologie améliore la gestion des longues séquences de texte, offrant une fenêtre de contexte étendue jusqu'à 128 000 tokens (voire plus selon certaines configurations), un atout critique pour l'analyse de code ou de documents juridiques.
Un saut technologique en codage et raisonnement
En tant que développeur, la première question qui vient à l'esprit est souvent : "Est-ce que ça code mieux que les autres ?". Les premiers retours et benchmarks internes indiquent que oui, et de manière significative. GLM-5 ne se contente pas de générer du code ; il démontre une capacité de "deep reasoning" (raisonnement profond) qui le place en concurrent direct de Claude Opus 4.5 ou GPT-4 pour les tâches complexes.
Le modèle brille particulièrement sur les benchmarks de référence :
- SWE-bench Verified : Score de 77,8 %, démontrant une fiabilité accrue pour la correction de bugs et le refactoring.
- AIME 2026 I (Mathématiques) : Score de 92,7 %, prouvant une capacité de logique avancée.
- Terminal-Bench 2.0 : Score de 56,2 %, validant son potentiel pour les tâches d'agents autonomes (exécuter des commandes, naviguer sur le web).
Ces résultats suggèrent que GLM-5 est taillé pour l'agentic engineering, cette nouvelle discipline où l'IA ne se contente pas de suggérer du code, mais planifie et exécute des architectures logicielles complètes.
L’indépendance matérielle comme levier stratégique
C'est sans doute l'aspect le plus marquant de cette annonce, bien au-delà des simples performances techniques. GLM-5 a été entraîné exclusivement sur des puces Huawei Ascend, s'affranchissant totalement des GPU NVIDIA omniprésents dans l'industrie. Cette prouesse, rendue possible par le framework MindSpore, envoie un message fort : il est désormais possible d'atteindre l'état de l'art en IA sans dépendre de la chaîne logistique américaine.
Pour les entreprises et les gouvernements soucieux de souveraineté numérique, c'est un signal fort. Cela ouvre la voie à une alternative crédible, surtout pour les marchés où l'accès aux technologies occidentales est restreint ou scrutiné. Le modèle est d'ailleurs conçu pour être déployé sur une variété de matériels alternatifs, de Moore Threads à Cambricon.
Accessibilité et modèle économique
Oubliez les APIs fermées aux tarifs prohibitifs. Zhipu AI a choisi la transparence totale en publiant GLM-5 sous licence MIT. C'est une excellente nouvelle pour la communauté tech : cette licence permet une utilisation commerciale sans restriction, offrant une marge de manœuvre inédite aux startups et aux développeurs indépendants.
Le modèle est accessible de plusieurs manières :
- Open Source : Les poids sont disponibles sur Hugging Face et GitHub pour un déploiement local ou sur serveur privé.
- API : Une version hébergée est proposée via api.z.ai, avec des tarifs annoncés comme nettement inférieurs à ceux des modèles fermés comparables (environ 6 fois moins cher que Claude Opus 4.6 selon certaines estimations).
Toutefois, il faut noter que la capacité de calcul est actuellement sous tension, et l'accès API est soumis à des quotas progressifs.
Sources
- China's Zhipu AI launches new major model GLM-5 – South China Morning Post : Analyse du lancement et de la stratégie d'indépendance matérielle de Zhipu AI.
- GLM-5: From Vibe Coding to Agentic Engineering – VentureBeat : Détails techniques sur l'architecture et les performances comparées aux modèles concurrents.
- The Secret is Out: Pony Alpha is GLM 5 – Kilo Blog : Retour d'expérience sur l'utilisation de GLM-5 (anciennement Pony Alpha) pour le développement logiciel.
Qu'est-ce que le modèle GLM-5 de Zhipu AI ?
GLM-5 est un grand modèle de langage (LLM) développé par l'entreprise chinoise Zhipu AI. C'est un modèle open-source de 744 milliards de paramètres utilisant une architecture Mixture-of-Experts, reconnu pour ses performances élevées en codage et en raisonnement logique.
Quelle est la particularité matérielle de GLM-5 ?
GLM-5 se distingue par avoir été entraîné exclusivement sur des puces Huawei Ascend. C'est l'un des premiers modèles de cette envergure à ne pas dépendre des processeurs graphiques NVIDIA, marquant une étape clé pour la souveraineté technologique chinoise.
GLM-5 est-il gratuit et open-source ?
Oui, GLM-5 est publié sous licence MIT, ce qui autorise une utilisation commerciale gratuite. Les poids du modèle sont téléchargeables, bien que son déploiement nécessite une infrastructure matérielle conséquente en raison de sa taille.
Comment GLM-5 se compare-t-il à GPT-4 ou Claude ?
Selon les benchmarks publiés par Zhipu AI, GLM-5 rivalise avec les versions les plus avancées de GPT-4 et Claude Opus, notamment dans les tâches de codage (SWE-bench) et de mathématiques. Il offre une alternative performante et souvent moins coûteuse via API.





