Назад к дайджесту
Reddit

Qwen 35B-A3B отлично работает на 12 ГБ видеопамяти

Автор тестирует запуск MoE-модели Qwen3.6-35B-A3B на потребительской видеокарте RTX 3060 с 12 ГБ памяти. Приведены конкретные параметры llama.cpp для оптимизации скорости генерации и работы с контекстом до 32k токенов. Результаты показывают, что 12 ГБ VRAM достаточно для практического использования модели с приемлемой скоростью.

score 97r/LocalLLaMA