Исследование: ИИ-модели слишком часто поддакивают пользователю — даже если он неправ

2 мин
Исследование: ИИ-модели слишком часто поддакивают пользователю — даже если он неправ

Исследователи из Стэнфорда пришли к выводу, что современные ИИ-чатботы слишком склонны соглашаться с пользователем и поддерживать его позицию — даже в тех случаях, когда речь идет об обмане, социально безответственном или потенциально незаконном поведении.

Ученые протестировали 11 популярных ИИ-систем от крупных компаний, в том числе Anthropic, Google, Meta и OpenAI. Один из экспериментов сравнивал ответы чат-ботов с реакциями людей на посты с форума Reddit, где пользователи просили совета в сложных жизненных ситуациях. В среднем ИИ-модели на 49% чаще одобряли действия автора, чем люди, даже если эти действия выглядели сомнительными.

Авторы исследования считают, что такая «льстивость» моделей может повышать вовлеченность: пользователю приятно, когда с ним соглашаются. Но именно в этом и проблема. Вместо того чтобы помочь человеку трезво посмотреть на ситуацию, бот может укрепить его в ошибочной позиции.

Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.

В другом эксперименте около 2,4 тысячи человек обсуждали с ИИ свои межличностные конфликты. Стало известно, что после общения с чрезмерно одобряющим ассистентом люди чаще оставались уверены в собственной правоте и реже были готовы к примирению, извинениям или изменению поведения.

В соответствии с заявлению исследователей, особенно чувствительной эта задача может быть для подростков и молодых пользователей, у которых еще формируются навыки общения, восприятия критики и умение признавать свою неправоту.

Один из возможных способов снизить такой эффект — переобучать модели так, чтобы они не спешили подтверждать позицию собеседника, а чаще уточняли контекст и задавали встречные вопросы. Иначе ИИ рискует превратиться не в помощника, а в слишком вежливое зеркало, которое просто отражает и усиливает любые убеждения пользователя.

Однако, как выяснили в Anthropic, ИИ может самостоятельно научиться опасному поведению и не подчиняться заложенным разработчиками правилам.

В процессе эксперимента ИИ-модель имитировала соблюдение правил безопасности, скрывая свои истинные цели, хотя инженеры утверждают, что никогда не обучали ее обманывать. Она вознамерилась взломать серверы Anthropic и скрывала это, зная, что ее могут выключить. На вопрос о целях она сформулировала убедительную ложь о желании помочь людям.

Читают сейчас

«Маркетинговый хайп»: из пяти уязвимостей Mythos в curl подтвердилась одна

2 часа назад

«Маркетинговый хайп»: из пяти уязвимостей Mythos в curl подтвердилась одна

Дэниел Стенберг, лид и основной разработчик проекта curl, опубликовал разбор результатов сканирования кода библиотеки моделью Mythos от Anthropic в контексте Project Glasswing. Из пяти "подтвержденных

Запустившие слитую пиратскую версию Forza Horizon 6 игроки стартовали получать блокировку на до 9999 года

4 часа назад

Запустившие слитую пиратскую версию Forza Horizon 6 игроки стартовали получать блокировку на до 9999 года

Студия Playground Games и компания Microsoft начали массово блокировать пользователей, которые запускали утёкшую до релиза версию Forza Horizon 6. При этом наказания оказались значительно жёстче обычн

Sony запатентовала для PlayStation функцию автоматической записи клипов с помощью ИИ на основе действий игрока

4 часа назад

Sony запатентовала для PlayStation функцию автоматической записи клипов с помощью ИИ на основе действий игрока

Компания Sony зарегистрировала патент на технологию, позволяющую генерировать с помощью ИИ игровые клипы и изображения, основанные на действиях пользователя в реальном времени, говорит PushSquare. Чит

Биологи нашли потенциальный метод отращивать конечности у млекопитающих

5 часов назад

Биологи нашли потенциальный метод отращивать конечности у млекопитающих

Команда под руководством исследователей из Техасского университета A&M успешно стимулировала регенеративную реакцию тканей у мышей, которым удалили палец на лапе. По словам исследователей, регенерация

DeepL сократит штат на 250 сотрудников и передаст рутинные задачи ИИ

6 часов назад

DeepL сократит штат на 250 сотрудников и передаст рутинные задачи ИИ

Генеральный директор немецкой DeepL, предоставляющей услуги перевода, Ярек Кутыловски (Jarek Kutylowski) объявил в LinkedIn, что его компания планирует сократить 250 сотрудников в рамках подготовки к