LFM2.5 1.2B Thinking
Liquid AI
Multilingual Thinking Tool Calls
LFM2.5 1.2B Thinking es un modelo híbrido de convolución-atención con 1.170 millones de parámetros de Liquid AI, optimizado para razonamiento "chain-of-thought" en dispositivos locales. Genera trazas de pensamiento antes de responder, logrando un rendimiento en matemáticas y lógica comparable a modelos un 40% más grandes. El modelo soporta "tool calling" y ocho idiomas, incluidos inglés, francés, alemán y español. Con una ventana de contexto de 128K y "flash attention", ocupa menos de 1 GB como GGUF Q4 para despliegue eficiente en dispositivos móviles y hardware de consumo.
Configuración de hardware
Opcional — para recomendaciones de despliegue precisas
| Cuantización | Calidad | Tamaño | Ajuste |
|---|---|---|---|
| FP16 | Precisión completa | 2.18 GB | — |
| Q8_0 | Alta | 1.16 GB | — |
| Q6_K | Alta | 0.9 GB | — |
| Q5_K_M | Media | 0.79 GB | — |
| Q4_K_M | Media | 0.68 GB | — |
| Q4_0 | Media | 0.65 GB | — |
Última actualización: 5 de marzo de 2026