Назад к дайджесту
Reddit

Какой Mac Mini выбрать для локальных LLM — что бы вы реально купили?

Пользователь Reddit обсуждает выбор Mac Mini для запуска локальных LLM (Ollama, Qwen, RAG). Сравнивает производительность M4, M2 Pro и M1 Max, фокусируясь на скорости инференса и пропускной способности памяти. Ключевой вопрос: стоит ли брать текущие модели или ждать выхода M5 в 2026 году.

score 17r/LocalLLaMA