Reddit
Где мы сейчас: за год всё изменилось. Kimi, Minimax, Qwen, Gemma, GLM
Пост посвящён взрывному росту возможностей локальных LLM, позволяющих запускать мощные модели на доступном оборудовании. Автор сравнивает эффективность Qwen 27b, Minimax и GLM с облачными гигантами вроде GPT-4o и Claude. Несмотря на ужесточение лицензий, сообщество отмечает золотую эру для open-source нейросетей.
score 55r/LocalLLaMA