26 февраля 2026
ИИ-платформа ProducerAI стала частью Google Labs

ProducerAI официально вошёл в состав Google Labs. Платформа для создания и доработки музыки с помощью ИИ будет развиваться внутри Google.
Об этом сообщил директор по продукту Google Labs Элиас Роман. ССлужба доступен более чем в 250 странах, есть бесплатный и платные тарифы. Детали — в материале Postium.
ProducerAI — музыкальный «соавтор». Пользователь описывает идею словами — например, «сделай лоуфай-бит», — а затем пошагово дорабатывает трек: меняет аранжировку, усиливает низ, добавляет эффекты, экспериментирует с жанрами.
Платформа использует несколько моделей Google DeepMind. За диалог отвечает Gemini, музыку генерирует Lyria 3 — высокоточная модель профессионального уровня. Veo применяется для работы с видео, Nano Banana — для визуального контента. Все результаты получают встроенный водяной знак SynthID — технологию невидимой маркировки ИИ-контента.
Lyria 3 учитывает структуру музыки — ритм, аранжировку, форму трека — и позволяет точнее настраивать композицию, включая управление темпом и текстами с синхронизацией по времени.
С помощью функции Spaces можно создавать новые инструменты, эффекты и мини-приложения — от несложный клавиатуры до модульной среды с нодовой маршрутизацией аудио. Эти мини-приложения можно публиковать и миксировать.
Как пользоваться
Зарегистрируйтесь на сайте producer.ai — доступен вход через Google-аккаунт. После этого можно перейти к генерации музыки: попросить ИИ написать текст песни, придумать мелодию или создать трек в определённом жанре.

После базовой генерации пользователи могут точечно редактировать композицию — в частности, добавлять реверберацию или усиливать бас.
Также доступна опция Spaces. С её помощью можно словами описывать и разрабатывать собственные виртуальные инструменты или модульные среды для обработки звука, а затем делиться этими пресетами с другими пользователями.
Почему это важно? Google практически объединяет музыкальные ИИ-инструменты в полноценный продакшн-инструмент. Речь идёт не о коротких демо, а о системной работе с треком — с контролем структуры и звучания.
Google уже несколько лет развивает музыкальные AI-инструменты. В компании есть Music AI Sandbox — экспериментальная среда для профессиональных музыкантов. Модель Lyria использовалась артистами, в том числе Wyclef Jean, как творческий средство.
Теперь ProducerAI становится частью этой стратегии — наряду с Google DeepMind и YouTube.
Читают сейчас

5 марта 2026 г.
После редизайна SharePoint работает на основе ИИ от Anthropic
SharePoint используется в корпоративных средах для управления контентом и файлами, размещёнными в частных сетях организаций, поэтому каждое апдейт влияет на миллионы клиентов по всему миру. Корпорация

5 марта 2026 г.
ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей
OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются

5 марта 2026 г.
OpenAI представила новую схема GPT-5.4
Компания продолжает развивать линейку языковых моделей, делая упор на более сложные задачи, программирование и работу с инструментами. Новая версия ориентирована не только на диалог, но и на выполнени

5 марта 2026 г.
OpenAI выпустила GPT-5.4 — свою новую флагманскую схема
Главное модификация: схема объединила возможности кодинга из GPT-5.3-Codex с улучшенным рассуждением из GPT-5.2. Раньше это были отдельные модели под разные задачи, теперь одна. На бенчмарке GDPval, г

5 марта 2026 г.
Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером
OpenAI выпустила GPT-5.4 — новую flagship-модель, которая заменяет сразу две предшественницы: GPT-5.2 (универсальную) и GPT-5.3-Codex (кодерскую). Контекстное окно выросло до 1,05 млн токенов — в 2,5