Reddit
Настройка локальных LLM для программирования: GPU или MacBook Pro?
Программист обсуждает настройку локальных языковых моделей для работы в паре с кодом, сравнивая производительность Nvidia и Apple Silicon. Поднимаются вопросы выбора моделей, требований к памяти и инструментов для IDE. Запрос на реальный опыт использования LLM в продакшене, а не в тестах.
score 15r/LocalLLaMA