Reddit
Qwen3.6 35b-a3b: сравнение с Gemma4 и вывод о превосходстве
Автор делится опытом использования Qwen3.6 35b-a3b через llama.cpp, отмечая более высокую скорость и точность следования инструкциям по сравнению с Gemma4 26b-a4b. Модель демонстрирует стабильную работу на длинном контексте, что вернуло пользователя к предпочтению Qwen.
score 29r/LocalLLaMA