ИИ-сообщество представило крошечный трансформер для складывания 10-значных чисел

2 мин
ИИ-сообщество представило крошечный трансформер для складывания 10-значных чисел

Участники открытого челленджа AdderBoard довели минимальный трансформер, способный складывать два 10-значных числа, до 130 параметров — в 47 раз меньше исходной модели на 6 080 параметров. Модель достигает 100%-й точности на тестовой выборке из 10 000 примеров.

Все началось с эксперимента Димитриса Папаилиопулоса, профессора Висконсинского университета и исследователя Microsoft Research. В феврале он дал Claude Code и Codex одинаковое задание: обучить самый маленький трансформер, который складывает 10-значные числа с точностью не ниже 99%. Claude Code вернул схема на 6 080 параметров, Codex — на 1 644. Папаилиопулос описал эксперимент в посте "Сложение под давлением" и открыл лидерборд для всех желающих.

Сообщество быстро включилось в гонку. В лидерборде два трека: обученные модели, где веса находит алгоритм оптимизации, и модели с аналитически заданными весами — конструктивные доказательства того, что архитектура в общем способна представлять сложение. Рекорд среди обученных моделей — 311 параметров при точности 99,999%, среди аналитических — те самые 130. Ключевые приемы: факторизация ранга 1 и 3, разделение эмбеддингов, синусоидальное позиционное кодирование и обнаружение переноса через ReLU.

ЗПроблема выглядит тривиально, но для авторегрессивного трансформера сложение требует трех вещей одновременно: выравнивания цифр через механизм внимания, поразрядной арифметики в MLP-слое и пробрасывания переноса через последовательную генерацию. Участники обнаружили резкий фазовый переход точности в районе 800 параметров и выяснили, что однослойные архитектуры при равном бюджете обходят двухслойные.

AdderBoard — по сути, исследование нижней границы возможностей трансформеров на задаче, которую человек решает в столбик. Лидерборд открыт: любой может предложить свою схема через GitHub, пройти верификацию и попасть в таблицу.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Читают сейчас

После редизайна SharePoint работает на основе ИИ от Anthropic

5 марта 2026 г.

После редизайна SharePoint работает на основе ИИ от Anthropic

SharePoint используется в корпоративных средах для управления контентом и файлами, размещёнными в частных сетях организаций, поэтому каждое апдейт влияет на миллионы клиентов по всему миру. Корпорация

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

5 марта 2026 г.

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются

OpenAI представила новую схема GPT-5.4

5 марта 2026 г.

OpenAI представила новую схема GPT-5.4

Компания продолжает развивать линейку языковых моделей, делая упор на более сложные задачи, программирование и работу с инструментами. Новая версия ориентирована не только на диалог, но и на выполнени

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

5 марта 2026 г.

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

Главное модификация: схема объединила возможности кодинга из GPT-5.3-Codex с улучшенным рассуждением из GPT-5.2. Раньше это были отдельные модели под разные задачи, теперь одна. На бенчмарке GDPval, г

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

5 марта 2026 г.

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

OpenAI выпустила GPT-5.4 — новую flagship-модель, которая заменяет сразу две предшественницы: GPT-5.2 (универсальную) и GPT-5.3-Codex (кодерскую). Контекстное окно выросло до 1,05 млн токенов — в 2,5