Назад к дайджесту
Reddit

Кто-нибудь пробовал Zyphra 1 — 8B MoE?

ZyphraAI анонсировала модель ZAYA1-8B на архитектуре MoE, оптимизированную для плотности интеллекта. При менее чем 1 млрд активных параметров она превосходит открытые модели большего размера в задачах на рассуждения и математику. Разработчики утверждают, что модель приближается к возможностям DeepSeek-V3.2 и GPT-5-High.

score 19r/LocalLLaMA