Reddit
ik_llama.cpp ищет экспертов для доработки Vulkan-бэкенда
Форк популярной библиотеки llama.cpp — ik_llama.cpp — объявил о поиске волонтёров для поддержки и развития бэкенда Vulkan. Автор проекта признаёт нехватку компетенций в этой области и призывает сообщество помочь с реализацией графического параллелизма и недостающих операций. Это важно для расширения совместимости LLM с AMD GPU и интегрированной графикой.
score 30r/LocalLLaMA