Назад к дайджесту
Reddit

Открыт Chaperone-Thinking-LQ-1.0: 4-битная модель DeepSeek-R1-32B с QLoRA, работающая на 20 ГБ и дающая 84% на MedQA

Команда открыла модель Chaperone-Thinking-LQ-1.0 на базе DeepSeek-R1-32B, оптимизированную для медицинских задач с помощью 4-битного квантования GPTQ и QLoRA. Модель работает на одной GPU L40 (20 ГБ VRAM), показывая 84% точности на MedQA, что близко к GPT-4o. Решение предназначено для локального развертывания в здравоохранении с соблюдением суверенитета данных.

score 20r/MachineLearning