LFM2.5 1.2B Thinking
Liquid AI
Multilingual Thinking Tool Calls
LFM2.5 1.2B Thinking est un modèle hybride convolution-attention de 1,17 milliard de paramètres de Liquid AI, optimisé pour le raisonnement "chain-of-thought" sur appareil. Il génère des traces de réflexion avant de répondre, offrant des performances en mathématiques et logique comparables à des modèles 40% plus grands. Le modèle prend en charge le "tool calling" et huit langues dont l'anglais, le français, l'allemand et l'espagnol. Avec une fenêtre de contexte de 128K et le "flash attention", il tient sous 1 Go en GGUF Q4 pour un déploiement efficace en périphérie sur matériel mobile et grand public.
Configuration matérielle
Facultatif — pour des recommandations de déploiement précises
| Quantification | Qualité | Taille | Adéquation |
|---|---|---|---|
| FP16 | Pleine précision | 2.18 GB | — |
| Q8_0 | Élevée | 1.16 GB | — |
| Q6_K | Élevée | 0.9 GB | — |
| Q5_K_M | Moyenne | 0.79 GB | — |
| Q4_K_M | Moyenne | 0.68 GB | — |
| Q4_0 | Moyenne | 0.65 GB | — |
Dernière mise à jour : 5 mars 2026