Назад к дайджесту
GitHub

Внутреннее устройство LLM: от токенизации до оптимизации инференса

Гитхаб-репозиторий с пошаговым разбором архитектуры больших языковых моделей. Материал охватывает токенизацию, механизмы внимания и методы оптимизации инференса. Полезно для разработчиков, изучающих детали работы трансформеров.

61148 forksscore 84
learn-llmattention-is-all-you-needllmlarge-language-modelsllm-internalsattention-mechanism