Назад к дайджесту
Reddit

Старший научный сотрудник DeepMind Лерхнер: сознание у языковых моделей невозможно из-за «абстракционной ошибки»

Александр Лерхнер из Google DeepMind утверждает, что большие языковые модели никогда не достигнут уровня сознания, даже через 100 лет. Он объясняет это фундаментальной «абстракционной ошибкой» в текущих подходах к архитектуре ИИ. Выступление бросает вызов оптимистичным прогнозам о скором появлении искусственного разума.

score 100r/singularity