Reddit
Постепенный рост потребления памяти: утечка в llama.cpp?
Пользователь столкнулся с постепенным ростом потребления памяти при запуске большой модели Step-3.5-flash в llama.cpp 2.13.0 через LM Studio. Память не возвращается к исходному уровню после запросов, что может указывать на утечку ресурсов. Проблема затрагивает пользователей, работающих с тяжелыми моделями на локальных системах.
score 24r/LocalLLaMA