Назад к дайджесту
Reddit

Qwen3.6-35b на локальном Mac M5 Max: 64k контекста и 8-битное квантование не уступают Claude

Пользователь тестирует локальную модель Qwen3.6-35b-a3b через интерфейс OpenCode на MacBook Pro M5 Max с 128 ГБ памяти. Отмечает высокую скорость работы, поддержку длинного контекста и качество ответов, сравнимое с Claude, без отправки данных на сторонние серверы.

score 100r/LocalLLaMA