Zum Inhalt springen

GLM 4.7

Zai Org
Code Thinking Tool Calls

GLM-4.7 ist ein Mixture-of-Experts-Modell mit 358,34 Milliarden Parametern vom GLM-Team bei Zai Org, entwickelt für fortgeschrittenes Programmieren, agentisches Reasoning und Toolnutzung. Es leitet jeden Token durch 8 von 160 Experten plus 1 gemeinsamen Experten und erreicht Spitzenleistung bei Benchmarks wie SWE-bench und AIME bei überschaubarem Rechenaufwand pro Token. Das Modell unterstützt Codegenerierung, erweitertes Denken mit verschränktem Reasoning und Tool Calling auf Englisch und Chinesisch. Mit einem 198K-Kontextfenster und Flash Attention ist es für mehrstufige agentische Workflows auf High-End-GPU-Deployments ausgelegt.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 354.79 GB
Q8_K_XL Hoch 367.72 GB
Q6_K Hoch 274.17 GB
Q6_K_XL Hoch 280.43 GB
Q5_K_M Mittel 236.81 GB
Q5_K_S Mittel 230.04 GB
Q5_K_XL Mittel 236.19 GB
Q4_K_M Mittel 201.58 GB
Q4_K_S Mittel 189.71 GB
Q4_K_XL Mittel 190.51 GB
Q4_0 Mittel 189.1 GB
Q4_1 Mittel 209.19 GB
Q3_K_M Niedrig 159.5 GB
Q3_K_S Niedrig 144.39 GB
Q3_K_XL Niedrig 147.83 GB
Q2_K Niedrig 122.14 GB
Q2_K_L Niedrig 122.31 GB
Q2_K_XL Niedrig 125.92 GB
Zuletzt aktualisiert: 5. März 2026