Zum Inhalt springen

LFM2.5 1.2B Thinking

Liquid AI
Multilingual Thinking Tool Calls

LFM2.5 1.2B Thinking ist ein hybrides Convolution-Attention-Modell mit 1,17 Milliarden Parametern von Liquid AI, optimiert für Chain-of-Thought-Reasoning auf dem Endgerät. Es erzeugt Denkspuren vor der Antwort und liefert Mathematik- und Logikleistung, die mit Modellen mit 40% mehr Parametern konkurriert. Das Modell unterstützt Tool Calling und acht Sprachen, darunter Englisch, Französisch, Deutsch und Spanisch. Mit einem 128K-Kontextfenster und Flash Attention passt es als Q4-GGUF unter 1 GB für effizientes Edge-Deployment auf mobilen Geräten und Consumer-Hardware.

Hardwarekonfiguration

Optional — für präzise Bereitstellungsempfehlungen
Quantisierung Qualität Größe Eignung
FP16 Volle Präzision 2.18 GB
Q8_0 Hoch 1.16 GB
Q6_K Hoch 0.9 GB
Q5_K_M Mittel 0.79 GB
Q4_K_M Mittel 0.68 GB
Q4_0 Mittel 0.65 GB
Zuletzt aktualisiert: 5. März 2026