Reddit
Создана LoRA для Gemma 3 270M: стала ли она самой маленькой моделью с режимом мышления?
Автор разработал LoRA-адаптер для модели Gemma 3 270M, добавив ей способность к цепочке рассуждений (Chain of Thought). Обучение проводилось на процедурно сгенерированных данных и квантованных версиях Qwen/GLM на ограниченном железе (RTX 3050 4GB). Результат демонстрирует, что даже сверхмалые модели могут выполнять логические задачи при правильной настройке.
score 24r/LocalLLaMA