Назад к дайджесту
Reddit

Локальная модель для кодинга с большим VRAM: всё ещё Qwen 3.6 27B?

Пользователь обсуждает выбор локальной LLM для задач программирования, сравнивая Qwen 3.6 27B с моделями размером 100B+ (GPT-OSS, Deepseek) при наличии 224 ГБ видеопамяти. Акцент сделан на приоритете интеллекта модели над скоростью генерации токенов.

score 19r/LocalLLaMA