Назад к дайджесту
Reddit

Дешёвые Tesla V100 на 32 ГБ всё ещё имеют смысл для домашнего AI-лаба?

Автор спрашивает, оправдана ли покупка старых Tesla V100 с 32 ГБ памяти для локальных LLM, несмотря на возраст и энергопотребление. Основной фокус — объём VRAM для больших квантованных моделей, а не скорость вычислений. Тема актуальна для энтузиастов, собирающих домашние серверы для экспериментов с нейросетями.

score 21r/LocalLLaMA