3 бита хватит: Google ускорила работу LLM за счет сжатия кэша

2 мин
3 бита хватит: Google ускорила работу LLM за счет сжатия кэша

Google Research представила TurboQuant — алгоритм, который сжимает внутренний кэш больших языковых моделей до 3 бит. Одновременно качество ответов модели не падает, а дообучение не требуется. Работу покажут на конференции ICLR 2026.

Когда языковая схема обрабатывает длинный текст, она сохраняет промежуточные информация в так называемом кэше "ключ-значение" (key-value cache). Чем длиннее контекст, тем больше памяти съедает этот кэш — и тем медленнее работает схема. TurboQuant решает проблему в два шага: сначала алгоритм PolarQuant переводит информация в полярные координаты и сжимает их основную часть, а затем однобитовый алгоритм QJL устраняет остаточные ошибки. Вместе они позволяют обойтись без дополнительных затрат памяти, которые обычно сопровождают квантизацию.

Авторы протестировали TurboQuant на открытых моделях Gemma и Mistral на стандартных бенчмарках для работы с длинным контекстом — LongBench, Needle In A Haystack, RULER и других. Результаты: объем кэша сокращается минимум в 6 раз, а вычисление механизма внимания ускоряется до 8 раз на GPU H100 (в 4-битном режиме по сравнению с 32-битным). На задачах поиска "иголки в стоге сена" — когда нужно найти один факт в огромном тексте — схема с TurboQuant отработала без ошибок.

Помимо языковых моделей, механизм применим и для векторного поиска — технологии, которая лежит в основе семантического поиска Google. TurboQuant показал лучшую точность по сравнению с существующими методами квантизации, при этом не требуя настройки под определённый набор данных.

Google подчёркивает, что TurboQuant — не просто инженерное решение, а фундаментальный алгоритмический результат с доказанной оптимальностью. По мере роста контекстных окон и масштабов поиска такие методы сжатия становятся критически важными для всей индустрии.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Читают сейчас

Уволенные работники Oracle пытались договориться о более выгодном выходном пособии, но бывший работодатель отказал

50 минут назад

Уволенные работники Oracle пытались договориться о более выгодном выходном пособии, но бывший работодатель отказал

В конце марта Oracle сократила от 20 тыс. до 30 тыс. человек. Уволенные работники компании пытались договориться о более выгодном выходном пособии, но бывший работодатель отказал, пишет TechCrunch. Оз

Инициатива PHP перешёл на лицензию BSD-3

53 минуты назад

Инициатива PHP перешёл на лицензию BSD-3

Авторы языка программирования PHP направили в организацию OSI (Open Source Initiative) уведомление о добровольном выводе из обращения лицензии PHP License 3.01. Заявлено, что после нескольких лет рабо

В Италии впервые диагностировали зависимость от ИИ

2 часа назад

В Италии впервые диагностировали зависимость от ИИ

Итальянская национальная служба поддержки людей с зависимостями (Servizio per le Dipendenze, SerD) в начальный раз в стране зафиксировала аддикцию от искусственного интеллекта, пишет местное книга Gaz

2 часа назад

Instagram* отключил сквозное шифрование личных сообщений: что произошло 8 мая 2026 года

С 8 мая 2026 года Instagram* официально перестал поддерживать сквозное шифрование (E2EE) в директах. Meta** теперь технически способна видеть содержимое переписок между пользователями платформы. Офици

В США чиновники резали гранты через ChatGPT. Потом сделали бота крайним в суде

3 часа назад

В США чиновники резали гранты через ChatGPT. Потом сделали бота крайним в суде

Окружной судья Колин Маккэхон в Манхэттене 7 мая признала незаконной отмену больше 1400 грантов Национального фонда гуманитарных наук — государственной структуры, которая распределяет деньги между уче