Reddit
LMS Chat с Qwen3.6-35B-A3B: отличный результат
Пользователь делится опытом работы с локальной моделью Qwen3.6-35B-A3B через LM Studio. Приведены конкретные настройки инференса (temperature, top K, penalties) и кастомный системный промпт для точных выводов. Модель требует около 20GB VRAM и 17GB RAM.
score 14r/LocalLLaMA