OpenAI спешит на помощь: Сэм Альтман прокомментировал контракт с Минобороны

3 мин
OpenAI спешит на помощь: Сэм Альтман прокомментировал контракт с Минобороны

Сэм Альтман прокомментировал контракт OpenAI с Министерством обороны США и связанные с ним риски для индустрии искусственного интеллекта. Глава компании объявил, что соглашение было подписано в условиях напряжённой ситуации, его цель — снизить риск конфликта между правительством и IT-компаниями.

Переговоры Пентагона с компанией Anthropic завершились неудачей, после чего ведомство пригрозило признать её «угрозой национальной безопасности в цепочке поставок». Сразу после этого сделку с Министерством обороны заключила OpenAI. Контракт запрещает применять технологии компании для внутреннего наблюдения и требует назначения ответственного при работе автономных систем вооружений.

В субботу Альтман открыл сессию ответов на вопросы пользователей X.com, объяснив детали соглашения и позицию OpenAI. 

Сэм Альтман: Применение к Anthropic статуса угрозы национальной безопасности в цепочке поставок имело бы весьма неприятные последствия для всей отрасли, для страны и, конечно, для самой компании. Мы неоднократно говорили об этом Министерству обороны и до, и после переговоров. Мы решили действовать быстро в надежде на деэскалацию. Это прецедент, к которому всем стоит отнестись очень серьёзно. Я надеюсь, что это решение будет пересмотрено, и готов принять критику за нашу позицию.

По словам Альтмана, OpenAI долгое время участвовала только в несекретных проектах, но теперь Пентагон готов обсуждать сотрудничество на новых условиях.

Сэм Альтман: Я знаю, каково это — чувствовать себя загнанным в угол, и я сочувствую Министерству обороны. Это весьма преданная своему делу группа людей с чрезвычайно важной миссией. Я не могу представить, каково это — выполнять их работу. Наша отрасль сообщает им: «ТТехника, которую мы создаём, станет важнейшим элементом геополитического конфликта. Китай стремительно развивается, вы сильно отстаёте». И тут же добавляем: «Но мы вам не поможем, потому что в наших глазах вы вроде как злодеи». Я бы не был такому рад.

Вопрос: Вас беспокоит возможное ухудшение ситуации или риски для цепочки поставок, если в будущем возникнет спор с Минобороны о законности или незаконности использования технологий?

Сэм Альтман: Да, беспокоит. Если придётся бороться [с Минобороны], мы будем, конечно, но это риск. Мы решили действовать быстро, чтобы снизить вероятность обострения.

Вопрос: Почему Министерство обороны выбрало OpenAI, а не Anthropic?

Сэм Альтман: Мы придерживаемся многоуровневого подхода к безопасности — технические средства защиты, работа инженеров на местах, взаимодействие исследователей, облачные решения. Anthropic больше сосредоточилась на формальных запретах, а мы — на реальных мерах безопасности. Думаю, им равным образом было важно сохранить больше контроля, чем нам.

Вопрос: У ваших контрактов одинаковые условия?

Сэм Альтман: Нет, детали отличались. Но теперь наши условия будут доступны и им, если они захотят.

Вопрос: Могут ли работники отказаться от участия в проектах с Министерством обороны?

Сэм Альтман: Да, никто не обязан участвовать в таких разработках, если не хочет.

Вопрос: Какова сумма контракта?

Сэм Альтман: Это несколько миллионов долларов — незначительная сумма на фоне нашей выручки в более $20 млрд. Мы делаем это не ради денег, а потому что считаем правильным для страны, даже ценой репутационных издержек.

Читают сейчас

После редизайна SharePoint работает на основе ИИ от Anthropic

5 марта 2026 г.

После редизайна SharePoint работает на основе ИИ от Anthropic

SharePoint используется в корпоративных средах для управления контентом и файлами, размещёнными в частных сетях организаций, поэтому каждое апдейт влияет на миллионы клиентов по всему миру. Корпорация

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

5 марта 2026 г.

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются

OpenAI представила новую схема GPT-5.4

5 марта 2026 г.

OpenAI представила новую схема GPT-5.4

Компания продолжает развивать линейку языковых моделей, делая упор на более сложные задачи, программирование и работу с инструментами. Новая версия ориентирована не только на диалог, но и на выполнени

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

5 марта 2026 г.

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

Главное модификация: схема объединила возможности кодинга из GPT-5.3-Codex с улучшенным рассуждением из GPT-5.2. Раньше это были отдельные модели под разные задачи, теперь одна. На бенчмарке GDPval, г

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

5 марта 2026 г.

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

OpenAI выпустила GPT-5.4 — новую flagship-модель, которая заменяет сразу две предшественницы: GPT-5.2 (универсальную) и GPT-5.3-Codex (кодерскую). Контекстное окно выросло до 1,05 млн токенов — в 2,5