GitHub
Гайд по Strix Halo: локальные LLM на Ryzen AI Max+ 395
Материал посвящён оптимизации локальных языковых моделей на мини-ПК с APU Strix Halo. Автор делится бенчмарками производительности до 87 токенов в секунду, настройкой окружения и сравнением различных бэкендов для инференса.
243 forksShellscore 67.5
inferenceamdgguflocal-llmstrix-halollmunified-memoryllama-cppryzen-ai-maxvulkan