Reddit
Старший научный сотрудник DeepMind Лерхнер: сознание у языковых моделей невозможно из-за «абстракционной ошибки»
Александр Лерхнер из Google DeepMind утверждает, что большие языковые модели никогда не достигнут уровня сознания, даже через 100 лет. Он объясняет это фундаментальной «абстракционной ошибкой» в текущих подходах к архитектуре ИИ. Выступление бросает вызов оптимистичным прогнозам о скором появлении искусственного разума.
score 100r/singularity