Reddit
Qwen3.5-27B, Qwen3.5-122B и Qwen3.6-35B на 4x RTX 3090 — MoE-архитектуры хуже соблюдают строгие правила
Практический бенчмарк трёх моделей Qwen (плотная и MoE) на потребительском железе RTX 3090 в сценарии многоагентного оркестратора. Результаты показывают, что архитектуры MoE систематически уступают плотной модели в соблюдении жёстких ограничений на выполнение команд, независимо от размера параметров. Тесты проводились в реальных условиях с ограниченным контекстом и специфическими требованиями к безопасности.
score 57r/LocalLLaMA