Назад к дайджесту
Reddit

Создана LoRA для Gemma 3 270M: стала ли она самой маленькой моделью с режимом мышления?

Автор разработал LoRA-адаптер для модели Gemma 3 270M, добавив ей способность к цепочке рассуждений (Chain of Thought). Обучение проводилось на процедурно сгенерированных данных и квантованных версиях Qwen/GLM на ограниченном железе (RTX 3050 4GB). Результат демонстрирует, что даже сверхмалые модели могут выполнять логические задачи при правильной настройке.

score 24r/LocalLLaMA