Lancement du modèle GLM-5 par Zhipu AI

Zhipu AI dévoile GLM-5 : un modèle open-source formé sans puces NVIDIA

L'écosystème de l'intelligence artificielle vient de vivre un séisme discret mais majeur. Zhipu AI (Z.ai) a officialisé le lancement de GLM-5, un nouveau modèle de langage qui ne se contente pas d'égaler les leaders du marché sur le papier : il change les règles du jeu. Avec une architecture Mixture-of-Experts de 744 milliards de paramètres, ce modèle open-source se distingue par une prouesse technique inédite à cette échelle : un entraînement réalisé intégralement sur des puces chinoises.

Une architecture repensée pour la performance

GLM-5 ne suit pas une simple courbe de progression linéaire. Il adopte une architecture Mixture-of-Experts (MoE) optimisée, passant de 355 à 744 milliards de paramètres totaux, dont environ 40 milliards sont actifs par token. Concrètement, cela permet au modèle d'atteindre une capacité de raisonnement supérieure tout en maintenant des coûts d'inférence contenus. On retrouve ici une logique similaire à celle explorée par d'autres acteurs majeurs, mais Zhipu AI pousse le concept plus loin en intégrant le mécanisme DeepSeek Sparse Attention (DSA). Cette technologie améliore la gestion des longues séquences de texte, offrant une fenêtre de contexte étendue jusqu'à 128 000 tokens (voire plus selon certaines configurations), un atout critique pour l'analyse de code ou de documents juridiques.

Un saut technologique en codage et raisonnement

En tant que développeur, la première question qui vient à l'esprit est souvent : "Est-ce que ça code mieux que les autres ?". Les premiers retours et benchmarks internes indiquent que oui, et de manière significative. GLM-5 ne se contente pas de générer du code ; il démontre une capacité de "deep reasoning" (raisonnement profond) qui le place en concurrent direct de Claude Opus 4.5 ou GPT-4 pour les tâches complexes.

Le modèle brille particulièrement sur les benchmarks de référence :

  • SWE-bench Verified : Score de 77,8 %, démontrant une fiabilité accrue pour la correction de bugs et le refactoring.
  • AIME 2026 I (Mathématiques) : Score de 92,7 %, prouvant une capacité de logique avancée.
  • Terminal-Bench 2.0 : Score de 56,2 %, validant son potentiel pour les tâches d'agents autonomes (exécuter des commandes, naviguer sur le web).

Ces résultats suggèrent que GLM-5 est taillé pour l'agentic engineering, cette nouvelle discipline où l'IA ne se contente pas de suggérer du code, mais planifie et exécute des architectures logicielles complètes.

L’indépendance matérielle comme levier stratégique

C'est sans doute l'aspect le plus marquant de cette annonce, bien au-delà des simples performances techniques. GLM-5 a été entraîné exclusivement sur des puces Huawei Ascend, s'affranchissant totalement des GPU NVIDIA omniprésents dans l'industrie. Cette prouesse, rendue possible par le framework MindSpore, envoie un message fort : il est désormais possible d'atteindre l'état de l'art en IA sans dépendre de la chaîne logistique américaine.

Pour les entreprises et les gouvernements soucieux de souveraineté numérique, c'est un signal fort. Cela ouvre la voie à une alternative crédible, surtout pour les marchés où l'accès aux technologies occidentales est restreint ou scrutiné. Le modèle est d'ailleurs conçu pour être déployé sur une variété de matériels alternatifs, de Moore Threads à Cambricon.

Accessibilité et modèle économique

Oubliez les APIs fermées aux tarifs prohibitifs. Zhipu AI a choisi la transparence totale en publiant GLM-5 sous licence MIT. C'est une excellente nouvelle pour la communauté tech : cette licence permet une utilisation commerciale sans restriction, offrant une marge de manœuvre inédite aux startups et aux développeurs indépendants.

Le modèle est accessible de plusieurs manières :

  • Open Source : Les poids sont disponibles sur Hugging Face et GitHub pour un déploiement local ou sur serveur privé.
  • API : Une version hébergée est proposée via api.z.ai, avec des tarifs annoncés comme nettement inférieurs à ceux des modèles fermés comparables (environ 6 fois moins cher que Claude Opus 4.6 selon certaines estimations).

Toutefois, il faut noter que la capacité de calcul est actuellement sous tension, et l'accès API est soumis à des quotas progressifs.

Sources


Qu'est-ce que le modèle GLM-5 de Zhipu AI ?

GLM-5 est un grand modèle de langage (LLM) développé par l'entreprise chinoise Zhipu AI. C'est un modèle open-source de 744 milliards de paramètres utilisant une architecture Mixture-of-Experts, reconnu pour ses performances élevées en codage et en raisonnement logique.

Quelle est la particularité matérielle de GLM-5 ?

GLM-5 se distingue par avoir été entraîné exclusivement sur des puces Huawei Ascend. C'est l'un des premiers modèles de cette envergure à ne pas dépendre des processeurs graphiques NVIDIA, marquant une étape clé pour la souveraineté technologique chinoise.

GLM-5 est-il gratuit et open-source ?

Oui, GLM-5 est publié sous licence MIT, ce qui autorise une utilisation commerciale gratuite. Les poids du modèle sont téléchargeables, bien que son déploiement nécessite une infrastructure matérielle conséquente en raison de sa taille.

Comment GLM-5 se compare-t-il à GPT-4 ou Claude ?

Selon les benchmarks publiés par Zhipu AI, GLM-5 rivalise avec les versions les plus avancées de GPT-4 et Claude Opus, notamment dans les tâches de codage (SWE-bench) et de mathématiques. Il offre une alternative performante et souvent moins coûteuse via API.

Sur le même sujet

Z.aiGLM‑4.5
GLM‑4.5 Z.ai challenger américain

GLM‑4.5 : l’IA chinoise qui vient défier les géants américains

Z.ai (anciennement Zhipu AI) a récemment dévoilé GLM‑4.5, un modèle open‑source de nouvelle génération. Conçu pour les agents intelligents, il ambitionne de rivaliser avec GPT‑4 et Claude. Cet article présente qui est derrière GLM‑4.5, ses usages concrets, et pourquoi il incarne l’outsider chinois qui monte en puissance.

GLM-4.6 Zhipu AI
GLM-4.6 : nouvelle version du modèle de langage

Notre avis sur GLM-4.6 : la nouvelle version de GLM

Zhipu AI vient de lancer GLM-4.6, la dernière version de son modèle de langage phare. Cette nouvelle version promet des avancées significatives dans plusieurs domaines clés, du traitement du langage naturel aux capacités de codage. Après avoir analysé ses caractéristiques et performances, nous vous livrons notre avis complet sur cette mise à jour qui positionne GLM-4.6 comme un concurrent sérieux aux modèles internationaux établis.

Zhipu AI IPO
IPO de Zhipu AI et course à l'IA

IPO de Zhipu AI : Un signal fort dans la course à l'IA entre la Chine et les Etats-Unis

Le 8 janvier 2026, Zhipu AI faisait son entrée en bourse à Hong Kong, levant 43 milliards de dollars et atteignant une valorisation de 528 milliards de dollars HK. Bien plus qu'une simple introduction en bourse, cet événement marque un tournant dans la compétition mondiale de l'IA.
Mon regard sur cette IPO ? Une déclaration stratégique de la Chine dans sa course technologique avec les États-Unis.

mistral mistral ai
Logo Mistral AI sur fond bleu

Qu’est-ce que Mistral AI ?

Mistral AI est une startup française qui veut jouer dans la cour des grands de l’intelligence artificielle. À travers une approche radicalement ouverte et des modèles performants comme Mistral 7B ou Mixtral, elle ambitionne de concurrencer les géants comme OpenAI ou Meta. Mais que fait vraiment Mistral AI, et pourquoi tout le monde en parle ?

openai gpt-oss
OpenAI bascule dans l'open-source

GPT OSS : OpenAI comprend que l'avenir de l'IA sera open ou ne sera pas

Dans un mouvement qui a surpris l'écosystîme de l'intelligence artificielle, OpenAI a annoncé la sortie de deux modèles open-source via la plateforme HuggingFace. Une décision qui marque un changement stratégique fondamental pour l'entreprise jusqu'ici réputée pour son approche fermée. GPT OSS n'est pas qu'une simple mise à jour technique : c'est la reconnaissance que l'avenir de l'IA sera déterminé par l'équilibre entre innovation propriétaire et collaboration ouverte.

mixture of experts MoE
Architecture Mixture of Experts

L'architecture "Mixture of Experts" (MoE) expliquée simplement

Dans le paysage de l'intelligence artificielle, une architecture gagne en popularité : le Mixture of Experts (MoE). Cette approche révolutionnaire permet de créer des modèles à la fois puissants et efficaces. Mais comment fonctionne-t-elle exactement ? Pourquoi des modèles comme Mixtral ou GPT-4 l'adoptent-ils ? Décryptons ensemble cette innovation devenue incontournable pour le deep learning.