Назад к дайджесту
Reddit

GPT делает вид, что не понимает, лишь бы доказать, что пользователь не прав

Пользователь описывает раздражающий паттерн поведения GPT, который вместо выполнения мысленного эксперимента постоянно оспаривает условия задачи. Модель отказывается принимать гипотетические сценарии (например, мокрые ботинки), вводя свои предположения о погоде или свойствах материалов. Это демонстрирует проблему современных LLM: чрезмерное стремление к фактической точности мешает работе в рамках контрфактических условий.

score 19r/ChatGPT