Reddit
Локальный Qwen 3.5/3.6 на M4 Max: расшифровка встреч полностью оффлайн
Основатель приложения Hedy продемонстрировал работу полного AI-пайплайна для расшифровки встреч на устройстве без интернета, используя модели Qwen 3.5/3.6 и Gemma 4 через llama.cpp. Приложение автоматически подбирает размер модели под доступную память и поддерживает Metal на Apple Silicon и Vulkan на Windows. Это позволяет обрабатывать аудио и текст локально, обеспечивая полную приватность данных.
score 28r/LocalLLaMA