Назад к дайджесту
Reddit

Сравнение Qwen3.6 35b-a3b и Gemma4 26b-a4b-it: взгляд обывателя

Автор сравнивает работу двух локальных LLM на видеокарте с 16 ГБ VRAM, отмечая превосходство Qwen3.6 в качестве ответов. Gemma4 показала себя как надёжная модель, но потребовала корректировки системного промпта для улучшения результатов. Обсуждение включает настройки квантования и скорость инференса в LM Studio.

score 100r/LocalLLaMA