Aller au contenu

LFM2.5 1.2B Thinking

Liquid AI
Multilingual Thinking Tool Calls

LFM2.5 1.2B Thinking est un modèle hybride convolution-attention de 1,17 milliard de paramètres de Liquid AI, optimisé pour le raisonnement "chain-of-thought" sur appareil. Il génère des traces de réflexion avant de répondre, offrant des performances en mathématiques et logique comparables à des modèles 40% plus grands. Le modèle prend en charge le "tool calling" et huit langues dont l'anglais, le français, l'allemand et l'espagnol. Avec une fenêtre de contexte de 128K et le "flash attention", il tient sous 1 Go en GGUF Q4 pour un déploiement efficace en périphérie sur matériel mobile et grand public.

Configuration matérielle

Facultatif — pour des recommandations de déploiement précises
Quantification Qualité Taille Adéquation
FP16 Pleine précision 2.18 GB
Q8_0 Élevée 1.16 GB
Q6_K Élevée 0.9 GB
Q5_K_M Moyenne 0.79 GB
Q4_K_M Moyenne 0.68 GB
Q4_0 Moyenne 0.65 GB
Dernière mise à jour : 5 mars 2026