GLM 4.7
Zai Org
Code Thinking Tool Calls
GLM-4.7 è un modello "Mixture-of-Experts" da 358,34 miliardi di parametri del team GLM di Zai Org, progettato per programmazione avanzata, ragionamento agentico e utilizzo di strumenti. Instrada ogni token attraverso 8 dei 160 esperti più 1 esperto condiviso, raggiungendo prestazioni di frontiera su benchmark come SWE-bench e AIME con un costo di calcolo per token gestibile. Il modello supporta generazione di codice, pensiero esteso con ragionamento interlacciato e "tool calling" in inglese e cinese. Con una finestra di contesto da 198K e "flash attention", è pensato per workflow agentici multi-step su deployment GPU di fascia alta.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| Q8_0 | Alta | 354.79 GB | — |
| Q8_K_XL | Alta | 367.72 GB | — |
| Q6_K | Alta | 274.17 GB | — |
| Q6_K_XL | Alta | 280.43 GB | — |
| Q5_K_M | Media | 236.81 GB | — |
| Q5_K_S | Media | 230.04 GB | — |
| Q5_K_XL | Media | 236.19 GB | — |
| Q4_K_M | Media | 201.58 GB | — |
| Q4_K_S | Media | 189.71 GB | — |
| Q4_K_XL | Media | 190.51 GB | — |
| Q4_0 | Media | 189.1 GB | — |
| Q4_1 | Media | 209.19 GB | — |
| Q3_K_M | Bassa | 159.5 GB | — |
| Q3_K_S | Bassa | 144.39 GB | — |
| Q3_K_XL | Bassa | 147.83 GB | — |
| Q2_K | Bassa | 122.14 GB | — |
| Q2_K_L | Bassa | 122.31 GB | — |
| Q2_K_XL | Bassa | 125.92 GB | — |
Ultimo aggiornamento: 5 marzo 2026