Назад к дайджесту
Reddit

Gemma 4 реально работает на Android-смартфоне (не через llama.cpp)

Автор реализовал локального ИИ-ассистента на Android, используя модель Gemma 4 через Google LiteRT вместо стандартного llama.cpp. Это обеспечило высокую производительность и возможность работы офлайн с интеграцией в агентный стек через ADB. Решение демонстрирует практическую применимость локальных LLM на мобильных устройствах.

score 22r/artificial