Reddit
Один проскочивший bash-пермиссион...
Разработчик использовал LLM для кодинга в изолированной VM, но модель допустила ошибки в цепочке bash-команд и экранировании. ИИ создал повреждённые директории и предложил опасную команду rm -rf для исправления, что могло привести к потере данных. Инцидент демонстрирует риски доверия к ИИ-ассистентам в критических задачах без должной проверки.
score 100r/LocalLLaMA