Reddit
Для чата и ответов: что лучше — MoE-модель Qwen 3.6 35B или Gemma 4 26B (без кодинга и агентов)
Пользователь спрашивает о сравнении двух больших языковых моделей с архитектурой MoE для задач чата и ответов на вопросы. Обсуждение исключает сценарии программирования и работы с агентами, фокусируясь на качестве диалога.
score 21r/LocalLLaMA