Zum Inhalt springen

Llama 4 Maverick 17B 128E Instruct (Q2_K_XL) — 49.3 GBauf OVH l40s-1-gpu

Meta
Code Multilingual Tool Calls Vision
Q2_K_XL OVH l40s-1-gpu

Überblick

Llama 4 Maverick 17B 128E Instruct ist ein 396.58B-Parameter moe-Sprachmodell von Meta, mit Fähigkeiten in code, multilingual, tool-calls, vision. Es unterstützt ein Kontextfenster von bis zu 1,048,576 Tokens.

Llama 4 Maverick 17B 128E Instruct ist ein grosses Mixture-of-Experts-Modell von Meta mit 17 Milliarden Parametern pro Experte und 128 Experten, wobei ein Experte pro Token aktiviert wird -- insgesamt rund 400 Milliarden Parameter. Es liefert Spitzenleistungen bei Vision, Codegenerierung und mehrsprachigen Aufgaben in 12 Sprachen. Maverick bildet die leistungsstarke Stufe der Llama-4-Familie und tauscht hoehere Speicheranforderungen gegen staerkere Benchmark-Ergebnisse. Mit einem 1M-Token-Kontextfenster erfordert es Multi-GPU-Setups, laesst sich aber bis auf Q2-Stufen quantisieren.

Bei Q2_K_XL-Quantisierung (Qualitätsstufe low) wiegt das Modell 142.17 GB. Das übersteigt die 48 GB VRAM von OVH l40s-1-gpu. Inferenz ist dennoch über CPU-Offload oder speicherabgebildetes Laden von der Festplatte möglich, allerdings mit deutlich reduzierter Leistung.

Die NVIDIA L40S ist eine Datacenter-GPU mit 48 GB GDDR6 VRAM und 864 GB/s Speicherbandbreite. Sie liefert 362 FP16 TFLOPS mit Ada-Lovelace-Architektur. Eine vielseitige GPU fuer KI-Inferenz, Training und Grafik-Workloads. Verarbeitet quantisierte Modelle bis 40B Parameter problemlos.

Hardwareanforderungen

Modellgröße 142.17 GB
Verfügbarer VRAM 48 GB
Genutzter VRAM 49.3 GB
System-RAM 80 GB
Min. RAM benötigt 142.2 GB
GPU-Ebenen 0 / 48
Kontextgröße 262.144
Backend cuda13
Flash Attention Nein
Lesen von Festplatte Ja

Leistungshinweise

Bereitstellung

Voraussetzungen

Stellen Sie sicher, dass Ihre GPU-Knoten mit dem NVIDIA Container Toolkit vorbereitet sind:

ansible-playbook prositronic.infra.nvidia_container_toolkit

Befehl

helmfile --state-values-file <(curl -s https://www.prositronic.eu/values/llama-4-maverick-17b-128e-instruct/q2_k_xl/nvidia-l40s.yaml) apply

Generierte values.yaml

/values/llama-4-maverick-17b-128e-instruct/q2_k_xl/nvidia-l40s.yaml

Werte werden geladen…

Häufig gestellte Fragen

Wie viel VRAM benötigt Llama 4 Maverick 17B 128E Instruct (Q2_K_XL)?

Die Q2_K_XL-Quantisierung von Llama 4 Maverick 17B 128E Instruct benötigt 142.17 GB. Die 48 GB VRAM von OVH l40s-1-gpu reichen nicht für GPU-Schichten aus, daher läuft die Inferenz auf der CPU.

Kann ich Llama 4 Maverick 17B 128E Instruct auf OVH l40s-1-gpu ausführen?

Es ist möglich, aber nicht empfohlen. OVH l40s-1-gpu hat nicht genug VRAM, um Llama 4 Maverick 17B 128E Instruct (Q2_K_XL) zu beschleunigen, daher wird die Inferenz auf CPU und System-RAM zurückgreifen.

Was ist Quantisierung?

Quantisierung reduziert die numerische Präzision eines Modells von seinem ursprünglichen Gleitkommaformat auf eine kompaktere Darstellung. Dies verringert die Dateigröße und den VRAM-Bedarf, wodurch es möglich wird, große Modelle auf Consumer-Hardware auszuführen. Der Kompromiss ist eine geringe Verringerung der Ausgabequalität. Q2_K_XL komprimiert Llama 4 Maverick 17B 128E Instruct von seiner ursprünglichen Größe auf 142.17 GB.

Welche Quantisierung sollte ich für Llama 4 Maverick 17B 128E Instruct wählen?

Q2_K_XL ist eine niedrigwertige Quantisierung. Hochwertigere Quants (Q8, Q6) bewahren mehr Modellgenauigkeit, benötigen aber mehr VRAM. Niedrigere Quants (Q4, Q3, Q2) reduzieren den VRAM-Verbrauch auf Kosten der Qualität. Wählen Sie basierend auf Ihrer verfügbaren Hardware und Ihren Qualitätsanforderungen.

Warum werden einige Schichten auf die CPU ausgelagert?

OVH l40s-1-gpu hat 48 GB VRAM, aber Llama 4 Maverick 17B 128E Instruct (Q2_K_XL) benötigt ungefähr 142.17 GB. Nur 0 von 48 Schichten passen in den VRAM; die übrigen Schichten laufen auf der CPU, was langsamer, aber funktional ist.

Was ist MoE und wie beeinflusst es die Bereitstellung?

Llama 4 Maverick 17B 128E Instruct verwendet eine Mixture-of-Experts (MoE)-Architektur mit 128 Experten, von denen 1 pro Token aktiv sind. Das bedeutet, dass nur ein Bruchteil der Modellgewichte bei jedem Inferenzschritt verwendet wird, wodurch MoE-Modelle bei der Gesamtparameteranzahl größer sein können und dennoch bei der Inferenz effizient bleiben.

Wie führe ich Llama 4 Maverick 17B 128E Instruct (Q2_K_XL) mit Ollama aus?

Führen Sie ollama run llama4:17b-maverick-128e-instruct-q2_k_xl aus, um Llama 4 Maverick 17B 128E Instruct (Q2_K_XL) zu starten. Ollama lädt die Modellgewichte beim ersten Start automatisch herunter.

Zuletzt aktualisiert: 5. März 2026