Назад к дайджесту
Reddit

Проверил Qwen3.6-27B-UD-Q6_K_XL.gguf с CloudeCode — оказался пригоден для работы

Пользователь протестировал локальную модель Qwen3.6-27B с контекстом 200K на RTX 5090 через llama.cpp, получив 50 токенов/сек. Модель успешно справилась со сложной задачей по планированию кода, что делает её конкурентоспособной по сравнению с облачными аналогами.

score 35r/LocalLLaMA