Reddit
Точность против количества параметров: что важнее для LLM?
Пользователь Reddit сравнивает квантованные версии моделей одного семейства (Qwen3.5) с разным количеством параметров и точностью (IQ2_xxs против Q8_0) для задач кодинга и работы с инструментами. Также обсуждается эффективность запуска сверхбольших моделей (Kimi 2.6) при экстремально низком битрейте (1bit) по сравнению с меньшими моделями высокой точности.
score 22r/LocalLLaMA