В Debian отказались принимать решения по поводу вкладов в исходник от ИИ

9 мин
В Debian отказались принимать решения по поводу вкладов в исходник от ИИ

В Debian решили не принимать документ по вкладам, сгенерированным ИИ. Обсуждение темы началось в феврале 2026 года и выявило множество нюансов, но в результате не привело к голосованию по общей резолюции (GR).

Debian — новейший в постоянно растущем списке проектов, которые борются с вопросом о вкладе, созданном LLM; дискуссия началась в середине февраля, после того как Лукас Нуссбаум инициировал обсуждение проектом общей резолюции (ОР) о том, следует ли Debian принимать такие вклады.

Нуссбаум считал, что участникам проекта, вероятно, необходимо провести обсуждение, «чтобы понять, какова наша позиция в отношении вкладов, созданных с помощью ИИ». Он сказал, что подождёт пару дней, чтобы собрать отзывы, прежде чем официально представить ОР.

Предложение Нуссбауму заключалось в том, чтобы разрешить «вклады, созданные с помощью ИИ (частично или полностью сгенерированные в контексте программы LLM)», если будет выполнен ряд условий. Например, потребуется явное раскрытие информации, если «значительная часть вклада взята из инструмента без ручной модификации», а равным образом маркировка таких вкладов «чётким отказом от ответственности или машиночитаемым тегом, например, '[Сгенерировано ИИ]'». В предложении равным образом указывается, что участники должны «полностью понимать» материал и нести ответственность за него, «в том числе подтверждение технической ценности, безопасности, соответствия лицензии и полезности». Наконец, предлагалось запретить использование инструментов генеративного ИИ с непубличной или конфиденциальной информацией проекта, включая частные списки рассылки или отчёты по безопасности, находящиеся под эмбарго.

«Справедливо сказать, что трудно вести эффективный разговор о технологии, когда подобрать точную терминологию — всё равно что пытаться прибить желе к дереву. Искусственный интеллект — это обобщающий термин, но большая часть (не вся) рассматриваемых технологий на самом деле представляет собой инструменты для работы с большими языковыми моделями. Когда у участников разные представления о том, что обсуждается, решение о том, следует ли это разрешать, может представлять собой определённую проблему», — говорится в посте сообщества, выпущенном по итогам дискуссии.

Расс Олбери призвал участников быть более точными в описании технологий, на которые могут повлиять их предложения. Он утверждал, что термин «искусственный интеллект» стал распространённым явлением, «настолько аморфным и небрежным, что он может охватывать любой физический объект во Вселенной». Если проект собирается формировать политику, сказал он, то необходимо весьма конкретно указать, о чём именно идет речь: «Большие языковые модели имеют свой уровень определения, хотя даже здесь было бы неплохо, если бы люди были более конкретны. Обучение с подкреплением — это специфическая технология с некоторыми интересными последствиями, такими как существование размеченных тестовых данных, используемых для обучения алгоритма. “Искусственный интеллект” означает лишь то, что хочет передать тот, кто пишет данное сообщение, и часто смысл меняется от одного сообщения к другому, что делает его бесполезным для разработки какой-либо устойчивой политики».

Гуннар Вольф согласился с Олбери, но Нуссбаум утверждал, что конкретная технология не имеет значения. Предложение сводилось к использованию автоматизированных инструментов для анализа и генерации кода: «Я вижу проблему, с которой мы сталкиваемся, как аналогичную историческим вопросам, связанным с использованием BitKeeper в Linux (за исключением того, что выбор BitKeeper навязал его использование другим участникам проекта). Это равным образом похоже на дискуссии о проприетарных инструментах анализа безопасности: поскольку эти инструменты являются проприетарными, следует ли игнорировать отчёты об уязвимостях, которые они выдают? Если бы мы заняли жёсткую позицию “против”, мне было бы очень трудно провести чёткую границу».

Тем не менее ряд разработчиков Debian не согласились с этим. Шон Уиттон предложил, чтобы в GR не только использовалось обозначение «LLM» вместо «AI», но и чтобы в нём различались области применения LLM, такие как тест кода, генерация прототипов или генерация производственного кода. Он предложил варианты голосования, которые могли бы разрешить некоторые недоразумения. Уиттон призвал Нуссбаума «не слишком настойчиво отстаивать что-то более общее, чем LLM, потому что это может оттолкнуть тех, с кем не хочется соглашаться». Андреа Паппакода сказал, что конкретная техника имеет большое значение; он хотел, чтобы предложение имело чёткие границы и избегало общих терминов, таких как ИИ. Он был обеспокоен идеей запрета LLM и не был уверен, где провести черту: «Однако я могу с уверенностью сказать, что такому проекту, как компилятор C Claude, не место в Debian».

Разговор не ограничился только терминологией. Саймон Рихтер задал вопросы о последствиях разрешения внесения вклада с помощью ИИ с точки зрения адаптации новых участников в Debian. По его словам, агент ИИ мог бы заменить начинающего разработчика, но оба могли бы выполнять разные функции.

Одновременно использование ИИ вызывает аналогичную проблему: существует огромный разрыв в навыках между «получением каких-то результатов» и «последовательным и устойчивым достижением результатов». Преодоление этого разрыва необходимо для достижения независимости от операторов сервиса ИИ, и этот разрыв нарушает работу новых участников.

Рихтер назвал это проблемой адаптации и сказал, что политика в отношении ИИ должна решить эту проблему; он не хотел отпугивать людей, отклоняя их предложения, или тратить ресурсы на наставничество тех, кто не хочет получать его. Принятие случайных предложений с помощью ИИ вредно, поскольку это упущенная функция адаптации нового участника, уверен он: «В лучшем случае тривиальная задача решается без привлечения нового участника, а в худшем — свежий участник просто выступает посредником между ИИ и сопровождающим проекта». Рихтер равным образом выразил обеспокоенность по поводу стоимости таких инструментов и предположил, что это может отпугнуть пользователей, которые не могут позволить себе использовать платные модели

Нуссбаум согласился, что стоимость может стать проблемой в будущем. Сейчас, по его словам, её нет, поскольку есть поставщики, предоставляющие доступ к ИИ бесплатно, но всё может измениться. Он не согласился с тем, что в Debian, вероятно, закончатся задачи, подходящие для новых участников, при внедрении ИИ, и предположил, что шаг может сделать более сложные задачи более доступными. Нуссбаум сослался на исследование, написанное сотрудником Anthropic и участником программы стипендиатов компании, о том, как использование ИИ влияет на формирование навыков: «Вывод ��аков: существуют весьма разные способы взаимодействия с ИИ, которые дают весьма разные результаты как с точки зрения скорости, так и понимания». 

Тед Цо выступил против идеи о негативном влиянии ИИ: «Некоторые противники ИИ обеспокоены тем, что его использование снизит возможности привлечения опытных участников, подразумевая, что это контрпродуктивно, поскольку ограничивает возможности вовлечения людей. И вы теперь говорите, что мы должны исключать из числа участников, использующих ИИ, тех, кто недостоин вносить свой вклад в Debian? Я бы сказал, что это еще более контрпродуктивно».

Мэтью Вернон объявил, что предложенный GR минимизирует этический аспект использования генеративного ИИ. Организации, разрабатывающие и продающие такие инструменты, как ChatGPT и Claude, ведут себя неэтично, сказал он, систематически нанося ущерб общественному достоянию в виде автоматизированного сбора данных и поступая по своему усмотрению с чужой интеллектуальной собственностью: «Они с невероятной скоростью поглощают контент, фактически не обращая внимания на его авторские права или лицензирование». Он также упомянул экологические проблемы и другие негативные последствия, приписываемые инструментам генеративного ИИ, «от несанкционированной обнажёнки и до заваливания проектов свободного программного обеспечения ложными отчётами о безопасности». Вернон считает, что Debian должен занять чёткую позицию против этих инструментов и призвать другие проекты поступать так же: «В лучшем случае Debian — это группа людей, которые объединяются, чтобы сделать мир лучше с помощью свободного программного обеспечения. Я думаю, нам следует сосредоточиться на ужасном поведении организаций, которые навязывают генеративный ИИ всем, и на реальном вреде, который они причиняют; и нам следует противостоять идее, что генеративный ИИ является либо общественным благом, либо неизбежен».

Также обсуждался вопрос авторского права, как в отношении лицензий на материалы, используемые для обучения моделей, так и в отношении результатов работы инструментов LLM. Джонатан Доуленд считал, что сейчас лучше запретить некоторые вклады ИИ, поскольку люди видят риски в их принятии, а затем смягчить позицию проекта позже, когда правовая ситуация прояснится.

Торстен Глазер занял особенно жёсткую позицию по отношению к вкладам, инициированным LLM, дойдя до того, что предложил вывести некоторые проекты из основного архива Debian в несвободный репозиторий, если «сопровождающие не отменят известные некорректные коммиты». Ансгар Бурхардт отметил, что это приведёт к запрету ядра Linux, Python, LLVM и других. Предложение Глазера не пользовалось особой популярностью. Он занимал аналогичную позицию в отношении моделей ИИ и в 2025 году; тогда разработчик утверждал, что большинство из них должны находиться вне основного архива, когда инициатива обсуждал GR о моделях ИИ и Руководстве по свободному программному обеспечению Debian (DFSG). Этот нормативный акт так и не был вынесен на голосование, частично потому, что было неясно, будет ли формулировка запрещать технологии антиспама.

Олбери не хотел касаться вопросов авторского права, но высказался о качестве кода, созданного с помощью ИИ. Он сказал, что этот аргумент не имеет смысла: «Написание бессмысленной чепухи не требует креативности; написание действительно плохого кода требует человеческой изобретательности».

Бдейл Гарби поддержал эту точку зрения и сказал, что он не хочет занимать жёсткую позицию: «Я рассматриваю это как ещё один этап эволюции, долгосрочные положительные и отрицательные последствия которого мы пока не понимаем». Он хотел сосредоточиться на долгосрочных последствиях. 

Из ​​обсуждения стало ясно, что разработчики Debian не пришли к единому мнению по вопросу принятия вкладов, созданных ИИ.

3 марта Нуссбаум объявил, что он предложил резолюцию «в связи с различные нападки на людей, использующих ИИ в контексте Debian»; тогда он посчитал, что с этим нужно срочно разобраться. Он предположил, что, если бы получилось принять GR, то «победивший вариант, вероятно, был бы весьма тонким, допускающим ИИ, но с набором мер предосторожности».

В августе 2025 года мейнтейнер ядра Linux Саша Левин начал частично использовать генеративный ИИ для определения патчей ядра Linux, которые следует портировать на предыдущие стабильные версии ядра Linux LTS (с долгосрочной поддержкой).

В сентябре разработчик Fedora Джейсон Брукс показал на обсуждение начальный вариант правил, регламентирующих применение ИИ‑инструментов при разработке дистрибутива Fedora Linux. В октябре эти правила утвердили. Так, было решено не запрещать использование ИИ-ассистентов при обязательном человеческом контроле за результатом их работы и несении разработчиком ответственности за код.

В декабре команда проекта GNOME добавила в правила разработки дополнений к GNOME Shell отдельный вспомогательный пункт, запрещающий разработчикам публикацию дополнений, сгенерированных при помощи ИИ‑инструментов. В проекте не будут приниматься дополнения, включающие признаки использования ИИ для генерации кода, например, бессмысленные или ненужные вставки элементов в коде, разнобой или ошибки в стилистике, а также надуманное использование api и наличие комментариев с подсказками для ИИ.

В январе Линус Торвальдс заявил в контексте обсуждения ситуации с использованием ИИ для разработчиков кода Linux, что «задача некачественного ИИ‑контента не будет решена с помощью Документации».

Читают сейчас

Microsoft прекратит отправку автоматических уведомлений на электронную почту об истечении срока хранения записей Teams

17 минут назад

Microsoft прекратит отправку автоматических уведомлений на электронную почту об истечении срока хранения записей Teams

Microsoft объявила о прекращении рассылки автоматических уведомлений на электронную почту об истечении срока хранения записей конференций Microsoft Teams. Пользователи больше не будут получать оповеще

OpenAI добавила в ChatGPT интерактивные визуализации для STEM-дисциплин как развитие «режима обучения»

18 минут назад

OpenAI добавила в ChatGPT интерактивные визуализации для STEM-дисциплин как развитие «режима обучения»

Организация OpenAI выпустила апдейт для ChatGPT, добавив возможность взаимодействия с динамическими визуализациями для изучения математики и естественных наук. Новая функция стала прямым развитием ран

«Лаборатория Касперского» открыла ежегодный весенний набор на оплачиваемую стажировку для студентов SafeBoard

24 минуты назад

«Лаборатория Касперского» открыла ежегодный весенний набор на оплачиваемую стажировку для студентов SafeBoard

11 марта 2026 года «Лаборатория Касперского» открыла ежегодный весенний набор на оплачиваемую стажировку под названием SafeBoard для студентов вузов Москвы и Московской области, заканчивающих обучение

В ChatGPT появились интерактивные графики для изучения физики и математики

37 минут назад

В ChatGPT появились интерактивные графики для изучения физики и математики

OpenAI добавила в ChatGPT интерактивные визуальные объяснения для более чем 70 тем по математике и физике. Теперь при вопросе о формуле или законе чатбот не просто выдает текстовый ответ, а демонстрир

Amazon запустила ИИ-помощника по вопросам здравоохранения на своём сайте и в приложении

56 минут назад

Amazon запустила ИИ-помощника по вопросам здравоохранения на своём сайте и в приложении

Amazon объявила о расширении доступа к своему помощнику на базе искусственного интеллекта по вопросам здравоохранения Health AI на своём сайте и в приложении. Ранее инструмент был доступен в приложени