80% токенов впустую: DeepSeek и GPT-OSS попались на «театральном мышлении»

2 мин
80% токенов впустую: DeepSeek и GPT-OSS попались на «театральном мышлении»

Исследователи из Goodfire AI и Гарварда обнаружили, что reasoning-модели вроде DeepSeek-R1 (671B) и GPT-OSS (120B) часто занимаются "театральным рассуждением" — модель уже уверена в ответе на 90%, но продолжает генерировать цепочку рассуждений (chain-of-thought), как будто еще думает. Простые зонды, обученные на внутренних активациях, считывают ответ модели задолго до того, как он появляется в тексте рассуждений.

Разработчики использовали три метода: attention-пробы на скрытых состояниях модели, принудительный обрыв рассуждения с требованием дать ответ и внешний CoT-монитор, читающий текст рассуждений. На простых вопросах из бенчмарка MMLU (главным образом задачи на знание) разрыв между пробами и монитором оказался огромным — модель "знала" ответ с первых шагов, но текстовые рассуждения выглядели так, словно подход еще впереди. На сложных вопросах из GPQA-Diamond (уровень аспирантуры по физике, химии и биологии) картина другая: уверенность модели росла постепенно вместе с текстом, и все три метода показывали похожую динамику. Здесь CoT действительно помогал — это было подлинное мышление.

Отдельный занимательный вывод касается точек перелома — моментов, когда модель пишет "подождите, я ошибся" или "практически...". Такие развороты появляются почти исключительно в ответах, где пробы фиксируют реальную неуверенность модели. Когда схема уверена с самого начала, подобных разворотов практически нет. Это значит, что backtracking и aha-моменты в рассуждениях — не показуха, а отражение реальных внутренних сомнений.

Из исследования вытекает и практическая польза: если зонд показывает, что модель уже уверена в ответе, генерацию можно просто остановить. На MMLU это экономит до 80% токенов при сохранении 97% точности, на GPQA-Diamond — 30% с тем же качеством. По сути, дешевый датчик поверх активаций сообщает "хватит думать" — и схема отвечает сразу. Стоит отметить, что DeepSeek-R1 (671B) и GPT-OSS (120B), на которых проводилось исследование, отстали от новых моделей на несколько поколений — не исключено, что ведущие авторы за это время приняли меры по сокращению ненужного расхода токенов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Читают сейчас

Пентагон представил ИИ, которым бомбит Иран. В тестах он путал грузовик с деревом

1 час назад

Пентагон представил ИИ, которым бомбит Иран. В тестах он путал грузовик с деревом

На конференции Palantir AIPCon 12 марта основной специалист по ИИ и цифровизации Минобороны США Кэмерон Стэнли впервые публично продемонстрировал Maven Smart System — ИИ-платформу от Palantir, которую

В Москве вырос спрос на пейджеры, рации и бумажные карты на фоне ограничений связи

2 часа назад

В Москве вырос спрос на пейджеры, рации и бумажные карты на фоне ограничений связи

В Москве на фоне проблем с мобильной связью и интернетом вырос спрос на альтернативные средства коммуникации и навигации. Об этом сообщают «Ведомости» со ссылкой на информация Wildberries. По информац

Google представила крупнейшее апдейт Maps

3 часа назад

Google представила крупнейшее апдейт Maps

Google представила крупнейшее апдейт автомобильной навигации в картах за последние десять лет. Свежий режим "погружающей навигации" (Immersive Navigation) заменяет привычную плоскую карту трёхмерным о

Ошибка в работе Telegram в РФ

3 часа назад

Ошибка в работе Telegram в РФ

14 марта 2026 года пользователи из РФ сообщили о сбое в работе мессенджера Telegram, в соответствии с данным российского портала Downdetector. Наблюдаются проблемы как с отправкой текстовых сообщений,

4 часа назад

СМИ: «Головная организация ГК „Солар“ завершила 2025 год с убытком в 664,5 млн рублей»

«Солар Секьюрити» , головная организация группы компаний (ГК) «Солар», завершила 2025 год с чистым убытком в размере 664,5 млн рублей. Выручка «Солар Секьюрити» одновременно выросла на 17% и достигла