Назад к дайджесту
Reddit

Один проскочивший bash-пермиссион...

Разработчик использовал LLM для кодинга в изолированной VM, но модель допустила ошибки в цепочке bash-команд и экранировании. ИИ создал повреждённые директории и предложил опасную команду rm -rf для исправления, что могло привести к потере данных. Инцидент демонстрирует риски доверия к ИИ-ассистентам в критических задачах без должной проверки.

score 100r/LocalLLaMA