Новость
Почему промпт-инъекцию нельзя «починить»: об архитектурных пределах безопасности LLM-агентов
Статья исследует фундаментальные ограничения безопасности LLM-агентов, показывая, что промпт-инъекцию невозможно устранить простыми патчами. Автор анализирует архитектурные уязвимости, возникающие при смешивании инструкций пользователя и внешних данных в контексте модели. Материал актуален для инженеров, разрабатывающих системы на базе генеративного ИИ.