Назад к дайджесту
Reddit

Настройка локальных LLM для программирования: GPU или MacBook Pro?

Программист обсуждает настройку локальных языковых моделей для работы в паре с кодом, сравнивая производительность Nvidia и Apple Silicon. Поднимаются вопросы выбора моделей, требований к памяти и инструментов для IDE. Запрос на реальный опыт использования LLM в продакшене, а не в тестах.

score 15r/LocalLLaMA