Ir al contenido

LFM2.5 1.2B Thinking

Liquid AI
Multilingual Thinking Tool Calls

LFM2.5 1.2B Thinking es un modelo híbrido de convolución-atención con 1.170 millones de parámetros de Liquid AI, optimizado para razonamiento "chain-of-thought" en dispositivos locales. Genera trazas de pensamiento antes de responder, logrando un rendimiento en matemáticas y lógica comparable a modelos un 40% más grandes. El modelo soporta "tool calling" y ocho idiomas, incluidos inglés, francés, alemán y español. Con una ventana de contexto de 128K y "flash attention", ocupa menos de 1 GB como GGUF Q4 para despliegue eficiente en dispositivos móviles y hardware de consumo.

Configuración de hardware

Opcional — para recomendaciones de despliegue precisas
Cuantización Calidad Tamaño Ajuste
FP16 Precisión completa 2.18 GB
Q8_0 Alta 1.16 GB
Q6_K Alta 0.9 GB
Q5_K_M Media 0.79 GB
Q4_K_M Media 0.68 GB
Q4_0 Media 0.65 GB
Última actualización: 5 de marzo de 2026