Назад к дайджесту
Reddit

Qwen3.6 35b-a3b: сравнение с Gemma4 и вывод о превосходстве

Автор делится опытом использования Qwen3.6 35b-a3b через llama.cpp, отмечая более высокую скорость и точность следования инструкциям по сравнению с Gemma4 26b-a4b. Модель демонстрирует стабильную работу на длинном контексте, что вернуло пользователя к предпочтению Qwen.

score 29r/LocalLLaMA