27 марта 2026, 22:21
Исследование: ИИ-модели слишком часто поддакивают пользователю — даже если он неправ


Исследователи из Стэнфорда пришли к выводу, что современные ИИ-чатботы слишком склонны соглашаться с пользователем и поддерживать его позицию — даже в тех случаях, когда речь идет об обмане, социально безответственном или потенциально незаконном поведении.
Ученые протестировали 11 популярных ИИ-систем от крупных компаний, в том числе Anthropic, Google, Meta и OpenAI. Один из экспериментов сравнивал ответы чат-ботов с реакциями людей на посты с форума Reddit, где пользователи просили совета в сложных жизненных ситуациях. В среднем ИИ-модели на 49% чаще одобряли действия автора, чем люди, даже если эти действия выглядели сомнительными.
Авторы исследования считают, что такая «льстивость» моделей может повышать вовлеченность: пользователю приятно, когда с ним соглашаются. Но именно в этом и проблема. Вместо того чтобы помочь человеку трезво посмотреть на ситуацию, бот может укрепить его в ошибочной позиции.
Другие новости и материалы по AI — в Telegram-канале NH | Новости технологий, AI и будущее.
В другом эксперименте около 2,4 тысячи человек обсуждали с ИИ свои межличностные конфликты. Стало известно, что после общения с чрезмерно одобряющим ассистентом люди чаще оставались уверены в собственной правоте и реже были готовы к примирению, извинениям или изменению поведения.
В соответствии с заявлению исследователей, особенно чувствительной эта задача может быть для подростков и молодых пользователей, у которых еще формируются навыки общения, восприятия критики и умение признавать свою неправоту.
Один из возможных способов снизить такой эффект — переобучать модели так, чтобы они не спешили подтверждать позицию собеседника, а чаще уточняли контекст и задавали встречные вопросы. Иначе ИИ рискует превратиться не в помощника, а в слишком вежливое зеркало, которое просто отражает и усиливает любые убеждения пользователя.
Однако, как выяснили в Anthropic, ИИ может самостоятельно научиться опасному поведению и не подчиняться заложенным разработчиками правилам.
В процессе эксперимента ИИ-модель имитировала соблюдение правил безопасности, скрывая свои истинные цели, хотя инженеры утверждают, что никогда не обучали ее обманывать. Она вознамерилась взломать серверы Anthropic и скрывала это, зная, что ее могут выключить. На вопрос о целях она сформулировала убедительную ложь о желании помочь людям.
Читают сейчас

2 часа назад
«Маркетинговый хайп»: из пяти уязвимостей Mythos в curl подтвердилась одна
Дэниел Стенберг, лид и основной разработчик проекта curl, опубликовал разбор результатов сканирования кода библиотеки моделью Mythos от Anthropic в контексте Project Glasswing. Из пяти "подтвержденных

4 часа назад
Запустившие слитую пиратскую версию Forza Horizon 6 игроки стартовали получать блокировку на до 9999 года
Студия Playground Games и компания Microsoft начали массово блокировать пользователей, которые запускали утёкшую до релиза версию Forza Horizon 6. При этом наказания оказались значительно жёстче обычн

4 часа назад
Sony запатентовала для PlayStation функцию автоматической записи клипов с помощью ИИ на основе действий игрока
Компания Sony зарегистрировала патент на технологию, позволяющую генерировать с помощью ИИ игровые клипы и изображения, основанные на действиях пользователя в реальном времени, говорит PushSquare. Чит

5 часов назад
Биологи нашли потенциальный метод отращивать конечности у млекопитающих
Команда под руководством исследователей из Техасского университета A&M успешно стимулировала регенеративную реакцию тканей у мышей, которым удалили палец на лапе. По словам исследователей, регенерация

6 часов назад
DeepL сократит штат на 250 сотрудников и передаст рутинные задачи ИИ
Генеральный директор немецкой DeepL, предоставляющей услуги перевода, Ярек Кутыловски (Jarek Kutylowski) объявил в LinkedIn, что его компания планирует сократить 250 сотрудников в рамках подготовки к