LFM2.5 1.2B Thinking
Liquid AI
Multilingual Thinking Tool Calls
LFM2.5 1.2B Thinking è un modello ibrido convolution-attention da 1,17 miliardi di parametri di Liquid AI, ottimizzato per il ragionamento "chain-of-thought" su dispositivo. Genera tracce di pensiero prima di rispondere, offrendo prestazioni in matematica e logica paragonabili a modelli con il 40% di parametri in più. Il modello supporta il "tool calling" e otto lingue tra cui inglese, francese, tedesco e spagnolo. Con una finestra di contesto da 128K e "flash attention", occupa meno di 1 GB come GGUF Q4 per un deployment efficiente su dispositivi mobili e hardware consumer.
Configurazione hardware
Facoltativo — per raccomandazioni di distribuzione precise
| Quantizzazione | Qualità | Dimensione | Adeguatezza |
|---|---|---|---|
| FP16 | Piena precisione | 2.18 GB | — |
| Q8_0 | Alta | 1.16 GB | — |
| Q6_K | Alta | 0.9 GB | — |
| Q5_K_M | Media | 0.79 GB | — |
| Q4_K_M | Media | 0.68 GB | — |
| Q4_0 | Media | 0.65 GB | — |
Ultimo aggiornamento: 5 marzo 2026