Phi 4
Microsoft
Code
Phi 4 ist ein dichter Transformer mit 14,66 Milliarden Parametern von Microsoft, trainiert auf 9,8 Billionen Tokens mit Schwerpunkt auf kuratierten synthetischen Daten für fortgeschrittenes Reasoning. Er übertrifft viele größere Modelle bei Wissenschafts- und Mathematik-Benchmarks und eignet sich daher besonders für reasoning-intensive Aufgaben bei moderater Größe. Das Modell konzentriert sich auf Englisch mit Fähigkeiten in Codegenerierung und mathematischer Problemlösung. Ein 16K-Kontextfenster und Flash Attention ermöglichen effiziente Inferenz, und es quantisiert gut im GGUF-Format für selbstgehostete GPU-Deployments.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| Q8_0 | Hoch | 14.51 GB | — |
| Q6_K | Hoch | 11.2 GB | — |
| Q5_K_S | Mittel | 9.45 GB | — |
| Q4_K_S | Mittel | 7.86 GB | — |
| Q4_0 | Mittel | 7.81 GB | — |
| Q4_1 | Mittel | 8.63 GB | — |
| Q3_K_S | Niedrig | 6.06 GB | — |
| Q2_K | Niedrig | 5.17 GB | — |
| Q3_K | Niedrig | 6.86 GB | — |
| Q3_K_L | Niedrig | 7.39 GB | — |
| Q4_K | Niedrig | 8.43 GB | — |
| Q5_0 | Niedrig | 9.45 GB | — |
| Q5_1 | Niedrig | 10.28 GB | — |
| Q5_K | Niedrig | 9.88 GB | — |
Zuletzt aktualisiert: 5. März 2026