HackerOne разъяснила использование данных исследователей для обучения ИИ после волны критики

3 мин

КОрганизация HackerOne разъяснила свою позицию относительно генеративного ИИ. Это произошло после того, как исследователи забеспокоились, что их отчёты используются для обучения моделей компании.

Волна возмущения в соцсети X разразилась после того, как платформа баг-баунти в январе 2026 года запустила сервис Agentic PTaaS. Компания заявила, что сервис обеспечивает непрерывную проверку безопасности. Agentic PTaaS сочетает автономное выполнение агентами задач с экспертизой элитных специалистов.

По словам HackerOne, агенты обучаются и совершенствуются на основе проприетарных данных об эксплойтах. Эти информация были получены за годы тестирования реальных корпоративных систем. ОТем не менее это заставило исследователей задаться вопросом об источнике данных для обучения агентов.

Исследователь ИБ Y Shahinzadeh написал в X, что надеется на неиспользование его отчётов для обучения ИИ-агентов. По мнению другого исследователя, специалисты буквально учат собственную замену. Как отметил ещё один кибербез-специалист с ником AegisTrail, когда белые хакеры чувствуют, что правовая система настроена против них, привлекательность тёмной стороны становится вопросом гнева и выживания, а не этики.

Генеральный директор HackerOne Кара Спрэг обратилась к сообществу в LinkedIn в серелине февраля. Кара Спрэг заявила, что HackerOne не обучает генеративные ИИ-модели на основе отчётов исследователей или конфиденциальных данных клиентов. Это касается как внутренних сил, так и сторонних провайдеров.

По словам генерального директора HackerOne, более того, отчёты исследователей не используются для обучения, тонкой настройки или иного улучшения генеративных ИИ-моделей. Сторонним провайдерам моделей не разрешается хранить или применять данные исследователей или клиентов для обучения собственных моделей.

Агентная ИИ-система HackerOne под названием Hai была разработана для ускорения результатов. Речь идёт о проверенных отчётах, подтверждённых исправлениях и выплаченных вознаграждениях. При этом сохраняется целостность и конфиденциальность вклада исследователей.

Кара Спрэг заверила исследователей, что их отчёты не вытсупают входными данными для моделей компании. СПлатформа Hai создана для дополнения работы специалистов, а не её замены.

Эта шумиха заставила другие компании чётко изложить свою позицию относительно данных исследователей и ИИ. Основатель и генеральный директор Intigriti Стейн Янс объявил, что хочет быть предельно ясным в своей позиции. Стейн Янс сообщил исследователям через LinkedIn, что они владеют своей работой.

Генеральный директор Intigriti отметил, что компания применяет ИИ для создания взаимной выгоды как для клиентов, так и для исследователей. Технология усиливает человеческую креативность, чтобы специалисты могли продолжать находить сложные, критически важные уязвимости. Модели часто пропускают такие уязвимости.

Intigriti развивает свои ИИ‑возможности, чтобы помочь исследователям быстрее приносить пользу. Это равным образом обеспечивает более быструю и точную сортировку командой компании.

В условиях использования платформа дляпоиска уязвимостей Bugcrowd говорится, что платфома не разрешает третьим сторонам обучать ИИ, LLM или генеративные ИИ‑модели на данных клиентов или исследователей.

В то же время Bugcrowd возлагает на исследователей ответственность за использование ими инструментов генеративного ИИ. Использование генеративного ИИ не освобождает их от строгого соблюдения правил платформы или конкретных рамок программ. Автоматизированные или непроверенные результаты не принимаются в качестве действительных отчётов.

Читают сейчас

После редизайна SharePoint работает на основе ИИ от Anthropic

5 марта 2026 г.

После редизайна SharePoint работает на основе ИИ от Anthropic

SharePoint используется в корпоративных средах для управления контентом и файлами, размещёнными в частных сетях организаций, поэтому каждое апдейт влияет на миллионы клиентов по всему миру. Корпорация

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

5 марта 2026 г.

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются

OpenAI представила новую схема GPT-5.4

5 марта 2026 г.

OpenAI представила новую схема GPT-5.4

Компания продолжает развивать линейку языковых моделей, делая упор на более сложные задачи, программирование и работу с инструментами. Новая версия ориентирована не только на диалог, но и на выполнени

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

5 марта 2026 г.

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

Главное модификация: схема объединила возможности кодинга из GPT-5.3-Codex с улучшенным рассуждением из GPT-5.2. Раньше это были отдельные модели под разные задачи, теперь одна. На бенчмарке GDPval, г

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

5 марта 2026 г.

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

OpenAI выпустила GPT-5.4 — новую flagship-модель, которая заменяет сразу две предшественницы: GPT-5.2 (универсальную) и GPT-5.3-Codex (кодерскую). Контекстное окно выросло до 1,05 млн токенов — в 2,5