Назад к дайджесту
Reddit

Qwen 3.6 27B зацикливается при длинном контексте

Пользователь сообщает о проблеме зацикливания модели Qwen 3.6 27B в llama-server при превышении контекста 100k токенов. Модель генерирует повторяющиеся ответы, которые не сбрасываются стандартными командами, в отличие от Gemma 31B. Автор просит помощи в настройке параметров инференса для стабилизации работы.

score 13r/LocalLLaMA