Reddit
Действительно ли "*Claude-4.6-Opus-Reasoning-Distilled" привносит что-то новое по сравнению с оригинальными моделями?
Пользователь Reddit обсуждает целесообразность дообученных версий LLM по сравнению с оригиналами. Вопрос касается влияния тонкой настройки на стиль общения и способность к рассуждениям (chain of thought). Обсуждение фокусируется на реальной ценности дистилляции для моделей.
score 41r/LocalLLaMA