14 марта 2026, 22:33
80% токенов впустую: DeepSeek и GPT-OSS попались на «театральном мышлении»

Исследователи из Goodfire AI и Гарварда обнаружили, что reasoning-модели вроде DeepSeek-R1 (671B) и GPT-OSS (120B) часто занимаются "театральным рассуждением" — модель уже уверена в ответе на 90%, но продолжает генерировать цепочку рассуждений (chain-of-thought), как будто еще думает. Простые зонды, обученные на внутренних активациях, считывают ответ модели задолго до того, как он появляется в тексте рассуждений.
Разработчики использовали три метода: attention-пробы на скрытых состояниях модели, принудительный обрыв рассуждения с требованием дать ответ и внешний CoT-монитор, читающий текст рассуждений. На простых вопросах из бенчмарка MMLU (главным образом задачи на знание) разрыв между пробами и монитором оказался огромным — модель "знала" ответ с первых шагов, но текстовые рассуждения выглядели так, словно подход еще впереди. На сложных вопросах из GPQA-Diamond (уровень аспирантуры по физике, химии и биологии) картина другая: уверенность модели росла постепенно вместе с текстом, и все три метода показывали похожую динамику. Здесь CoT действительно помогал — это было подлинное мышление.
Отдельный занимательный вывод касается точек перелома — моментов, когда модель пишет "подождите, я ошибся" или "практически...". Такие развороты появляются почти исключительно в ответах, где пробы фиксируют реальную неуверенность модели. Когда схема уверена с самого начала, подобных разворотов практически нет. Это значит, что backtracking и aha-моменты в рассуждениях — не показуха, а отражение реальных внутренних сомнений.
Из исследования вытекает и практическая польза: если зонд показывает, что модель уже уверена в ответе, генерацию можно просто остановить. На MMLU это экономит до 80% токенов при сохранении 97% точности, на GPQA-Diamond — 30% с тем же качеством. По сути, дешевый датчик поверх активаций сообщает "хватит думать" — и схема отвечает сразу. Стоит отметить, что DeepSeek-R1 (671B) и GPT-OSS (120B), на которых проводилось исследование, отстали от новых моделей на несколько поколений — не исключено, что ведущие авторы за это время приняли меры по сокращению ненужного расхода токенов.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Читают сейчас

1 час назад
Elegoo выпустила набор Canvas, с помощью которого можно добавить поддержку многоцветной печати в Centauri Carbon
Elegoo представила Canvas — набор для апгрейда 3D-принтера Centauri Carbon, с помощью которого можно добавить поддержку автоматической четырёхцветной печати. Комплект стоит 55 долларов, а поставки нач

2 часа назад
Для Chrome вышло плагин для локального запуска браузерного AI-ассистента на базе Gemma 4
ML-инженер Нико Мартин (Nico Martin) из Hugging Face выпустил расширение для Chrome, с помощью которого в браузере можно запустить локального AI-ассистента. Инициатива построен на базе Transformers.js

2 часа назад
У OpenAI могут кончиться деньги еще до IPO — расследование WSJ
The Wall Street Journal описал по утечкам от нескольких источников внутри OpenAI первый открытый раскол между двумя ключевыми руководителями компании. Финансовый директор Сара Фрайар и совет директоро

3 часа назад
GPT-2 научили подбирать сплавы для термоядерных реакторов
Ученые Ames National Laboratory — национальной лаборатории Министерства энергетики США — представили DuctGPT, языковую схема для подбора сплавов, способных выдержать условия внутри термоядерного реакт

4 часа назад
Звонки в службу поддержки Apple в России стали платными
Журналисты издания iPhones.ru заметили, что Apple закрыла в России бесплатную службу поддержки по телефону. Звонки теперь тарифицируются, согласно условиям оператора. Читать далее