1 час назад
Qwen стал лидером open-source рынка — у модели 942 млн загрузок

Семейство моделей Qwen от Alibaba набрало 942,1 млн загрузок на Hugging Face к марту 2026 года — вдвое больше, чем ближайший конкурент Llama (476 млн). Такие информация приводит свежий ATOM Report, опубликованный 8 апреля на arXiv: разработчики изучили приблизительно 1500 ключевых open-source моделей и описали, как менялся рынок их использования.
Qwen обогнал Llama по загрузкам еще в сентябре 2025 года — тогда счет был почти равным: 325,4 млн против 323,7 млн. Но затем разрыв стал расти стремительно. В феврале 2026 года Qwen генерировал 153,6 млн загрузок в месяц — это уже не просто популярная схема, а стандарт де-факто для огромной части сообщества.
Еще красноречивее выглядит картина с файн-тюнами — кастомными адаптациями, которые авторы делают поверх базовых моделей под свои задачи. Доля Qwen среди новых файн-тюнов выросла с 1% в январе 2024 года до 69% в феврале 2026-го. Llama за тот же период упала с пика в 44% (август 2024) до 11%. Это значимый сигнал: загрузки — это часто скачивание "на попробовать", а файн-тюны — это уже производственное использование.
Если просматривать на американских участников рынка в совокупности — NVIDIA, Ai2, IBM и других новых игроков — они набрали около 56 млн загрузок против 942,1 млн у одного только Qwen. Авторы отчета фиксируют четкую тенденцию: китайские модели обогнали американские аналоги еще летом 2025 года и с тех пор только наращивают отрыв.
Объяснение этому сдвигу лежит на поверхности. Qwen 2.5, вышедший в сентябре 2024 года, дал разработчикам широкий выбор размеров (от 0,5 до 72 млрд параметров), открытую лицензию Apache 2.0 и качество, конкурентоспособное с закрытыми моделями. DeepSeek в начале 2025 года усилил тренд — показал, что китайские лаборатории способны работать на мировом уровне при куда меньших затратах. Результат: экосистема open-source AI постепенно сместилась из Кремниевой долины в Ханчжоу и Шэньчжэнь.
Открытым остается ключевой вопрос: насколько загрузки конвертируются в реальные продакшн-внедрения? Статистика хорошо отражает активность исследователей и стартапов, но большой бизнес зачастую использует модели через закрытые программный интерфейс или собственные деплои, которые в этих цифрах не видны. Тем не менее доля файн-тюнов — куда более практичный индикатор: когда 69% новых адаптаций строятся на Qwen, это означает, что именно он стал базовым слоем для новых продуктов.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
Читают сейчас
49 минут назад
РАН назвала сроки запуска космических аппаратов «Луна-28», «Луна-29» и «Луна-30»
Запуск трёх космических аппаратов «Луна-28», «Луна-29» и «Луна-30» состоится в 2032–2036 годах. Об этом сообщил вице‑президент РАН Сергей Чернышев 7 апреля 2026 года. Российская приложение по изучению

1 час назад
Anthropic собирается создавать собственные ИИ-чипы
Anthropic рассматривает разработку собственных чипов — пишет Reuters со ссылкой на три источника Планы пока на ранней стадии: выделенной команды нет, конкретной архитектуры тоже. Сейчас Anthropic испо

1 час назад
С начала 2024 года Еврокомиссия оштрафовала американские технологические компании на более чем €6 млрд
Администрация президента США Дональда Трампа всё чаще оказывается на грани конфликта с Европейским союзом из-за штрафов, налагаемых на американские крупные технологические компании. Последние оспарива

2 часа назад
Один из сооснователей GitHub поднял $17M инвестиций на то, чтобы заменить Git
Скотт Чакон, который помогал создавать GitHub, в 2022 году запустил GitButler — и сейчас закрыл раунд Series A от a16z. Идея простая: за 20 лет Git почти не изменился, а мир разработки изменился карди

2 часа назад
OpenAI жёстко прошлась по Anthropic в мемо для инвесторов
OpenAI доказывает инвесторам, что её железо лучше, чем у Anthropic. Одновременно организация замораживает стройку дата-центра в Британии, а конкуренты поглядывают на собственные чипы. На этой неделе O