Zum Inhalt springen

Phi 4

Microsoft
Code

Phi 4 ist ein dichter Transformer mit 14,66 Milliarden Parametern von Microsoft, trainiert auf 9,8 Billionen Tokens mit Schwerpunkt auf kuratierten synthetischen Daten für fortgeschrittenes Reasoning. Er übertrifft viele größere Modelle bei Wissenschafts- und Mathematik-Benchmarks und eignet sich daher besonders für reasoning-intensive Aufgaben bei moderater Größe. Das Modell konzentriert sich auf Englisch mit Fähigkeiten in Codegenerierung und mathematischer Problemlösung. Ein 16K-Kontextfenster und Flash Attention ermöglichen effiziente Inferenz, und es quantisiert gut im GGUF-Format für selbstgehostete GPU-Deployments.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
Q8_0 Hoch 14.51 GB
Q6_K Hoch 11.2 GB
Q5_K_S Mittel 9.45 GB
Q4_K_S Mittel 7.86 GB
Q4_0 Mittel 7.81 GB
Q4_1 Mittel 8.63 GB
Q3_K_S Niedrig 6.06 GB
Q2_K Niedrig 5.17 GB
Q3_K Niedrig 6.86 GB
Q3_K_L Niedrig 7.39 GB
Q4_K Niedrig 8.43 GB
Q5_0 Niedrig 9.45 GB
Q5_1 Niedrig 10.28 GB
Q5_K Niedrig 9.88 GB
Zuletzt aktualisiert: 5. März 2026