Reddit
Оптимизация энергопотребления при локальном запуске LLM
Пользователь делится опытом запуска модели Qwen3.6-27B через llama.cpp на RTX 4090. Он утверждает, что ограничение мощности GPU на 40% не снижает производительность инференса, но экономит энергию и снижает шум. Полезный лайфхак для настройки локальных LLM.
score 74r/LocalLLaMA