Назад к дайджесту
Reddit

Постепенный рост потребления памяти: утечка в llama.cpp?

Пользователь столкнулся с постепенным ростом потребления памяти при запуске большой модели Step-3.5-flash в llama.cpp 2.13.0 через LM Studio. Память не возвращается к исходному уровню после запросов, что может указывать на утечку ресурсов. Проблема затрагивает пользователей, работающих с тяжелыми моделями на локальных системах.

score 24r/LocalLLaMA