Назад к дайджесту
Новость

1 млн токенов в Opus 4.7 — маркетинг: реально полезны лишь 300 тысяч, и Anthropic это подтверждает

Анализ подтверждает, что заявленные 1 млн токенов в Claude Opus 4.7 — это маркетинг: реальная полезная длина контекста около 300 тысяч, что подтверждается падением метрики MRCR с 78.3% до 32.2%. В материале сравниваются подходы к компакции промптов у Anthropic и Codex, где GPT-5.1 использует нативное обучение весов, а Opus — серверные хуки. Эксперты рекомендуют использовать Opus 4.6 как fallback для задач с длинным контекстом.