Reddit
Локальный AI-исследователь на llama.cpp: автоматизация исследований
Hugging Face выпустила ml-intern — фреймворк для агентов, объединяющий интеграцию с библиотеками Hugging Face и инфраструктурой Hub. Инструмент теперь поддерживает локальные модели через llama.cpp и ollama, позволяя запускать SFT и оркестрацию задач на ноутбуке без ограничений токенов. В примере Qwen3.6-35B-A3B выполняет полное дообучение модели, используя CPU/GPU песочницы.
score 60r/LocalLLaMA