LFM2.5 1.2B Thinking
Liquid AI
Multilingual Thinking Tool Calls
LFM2.5 1.2B Thinking ist ein hybrides Convolution-Attention-Modell mit 1,17 Milliarden Parametern von Liquid AI, optimiert für Chain-of-Thought-Reasoning auf dem Endgerät. Es erzeugt Denkspuren vor der Antwort und liefert Mathematik- und Logikleistung, die mit Modellen mit 40% mehr Parametern konkurriert. Das Modell unterstützt Tool Calling und acht Sprachen, darunter Englisch, Französisch, Deutsch und Spanisch. Mit einem 128K-Kontextfenster und Flash Attention passt es als Q4-GGUF unter 1 GB für effizientes Edge-Deployment auf mobilen Geräten und Consumer-Hardware.
Hardwarekonfiguration
Optional — für präzise Bereitstellungsempfehlungen
| Quantisierung | Qualität | Größe | Eignung |
|---|---|---|---|
| FP16 | Volle Präzision | 2.18 GB | — |
| Q8_0 | Hoch | 1.16 GB | — |
| Q6_K | Hoch | 0.9 GB | — |
| Q5_K_M | Mittel | 0.79 GB | — |
| Q4_K_M | Mittel | 0.68 GB | — |
| Q4_0 | Mittel | 0.65 GB | — |
Zuletzt aktualisiert: 5. März 2026