Reddit
Дешёвые Tesla V100 на 32 ГБ всё ещё имеют смысл для домашнего AI-лаба?
Автор спрашивает, оправдана ли покупка старых Tesla V100 с 32 ГБ памяти для локальных LLM, несмотря на возраст и энергопотребление. Основной фокус — объём VRAM для больших квантованных моделей, а не скорость вычислений. Тема актуальна для энтузиастов, собирающих домашние серверы для экспериментов с нейросетями.
score 21r/LocalLLaMA