Salta ai contenuti

LFM2.5 1.2B Thinking

Liquid AI
Multilingual Thinking Tool Calls

LFM2.5 1.2B Thinking è un modello ibrido convolution-attention da 1,17 miliardi di parametri di Liquid AI, ottimizzato per il ragionamento "chain-of-thought" su dispositivo. Genera tracce di pensiero prima di rispondere, offrendo prestazioni in matematica e logica paragonabili a modelli con il 40% di parametri in più. Il modello supporta il "tool calling" e otto lingue tra cui inglese, francese, tedesco e spagnolo. Con una finestra di contesto da 128K e "flash attention", occupa meno di 1 GB come GGUF Q4 per un deployment efficiente su dispositivi mobili e hardware consumer.

Configurazione hardware

Facoltativo — per raccomandazioni di distribuzione precise
Quantizzazione Qualità Dimensione Adeguatezza
FP16 Piena precisione 2.18 GB
Q8_0 Alta 1.16 GB
Q6_K Alta 0.9 GB
Q5_K_M Media 0.79 GB
Q4_K_M Media 0.68 GB
Q4_0 Media 0.65 GB
Ultimo aggiornamento: 5 marzo 2026