Reddit
Доступна квантованная версия Kimi-K2.6 в формате GGUF (Q4_X)
Разработчик ubergarm опубликовал квантованную версию модели Kimi-K2.6 в формате GGUF (Q4_X) для запуска через llama.cpp. Для работы требуется около 584 ГБ памяти, поэтому релиз ориентирован на мощные серверы. В планах автора — более компактные версии и сравнение с GLM-5.1.
score 81r/LocalLLaMA