Назад к дайджесту
Reddit

Хайп вокруг Qwen 3.6 35B A3B оправдан!

Автор тестирует локальные LLM на способность понимать код к научным статьям в условиях длинного контекста. Модели с новыми архитектурами (Qwen 3.6 35B A3B, Gemma 4, Nemotron 3) значительно превзошли предшественников, а Qwen 3.6 35B A3B признан лучшим решением для локального использования.

score 100r/LocalLLaMA