VokiLLM-0.5B-Instruct (GGUF)

Готовые файлы модели VokiLLM-0.5B-Instruct в формате GGUF: FP16 и квантовки для llama.cpp/LM Studio и других совместимых рантаймов.

Кратко

  • Архитектура: qwen2
  • Размер: ~0.5B (лейбл в GGUF: 630M)
  • Контекст: 8192
  • Назначение: Instruct / чат

Файлы

Файлы лежат в корне репозитория. В таблице ниже названия — это ссылки на скачивание.

Как запустить

llama.cpp (CLI)

Пример (Windows):

llama-cli.exe -m "vokillm-0.5b-instruct-q4_k_m.gguf" -p "Привет! Коротко объясни, что такое GGUF."

LM Studio

  • Открой LM Studio → ModelsAdd model → выбери нужный *.gguf
  • Рекомендуемый стартовый вариант: q4_k_m (баланс скорость/качество)

Про квантовки IQ2/IQ1

Квантовки IQ2_* и IQ1_S сделаны с importance matrix (imatrix) (это повышает качество для “экстремальных” квантовок).

Downloads last month
361
GGUF
Model size
0.6B params
Architecture
qwen2
Hardware compatibility
Log In to add your hardware

1-bit

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support