Reddit
Сравнение Qwen3.6 35b-a3b и Gemma4 26b-a4b-it: взгляд обывателя
Автор сравнивает работу двух локальных LLM на видеокарте с 16 ГБ VRAM, отмечая превосходство Qwen3.6 в качестве ответов. Gemma4 показала себя как надёжная модель, но потребовала корректировки системного промпта для улучшения результатов. Обсуждение включает настройки квантования и скорость инференса в LM Studio.
score 100r/LocalLLaMA