Журнал издаётся при содействии Ассоциации русскоязычных журналистов Израиля ( IARJ )
имени Михаэля Гильбоа (Герцмана)

Наши награды:

Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать

0

AP Photo/The Star-Ledger, John Munson, Pool
Исследование показало, что использование чат-ботов на базе искусственного интеллекта для получения личных советов связано с «скрытыми рисками». Такие системы часто подтверждают и поддерживают точки зрения пользователя, даже если они носят вредный характер. По словам авторов работы, полученные данные вызывают серьезные опасения относительно того, что чат-боты могут искажать самооценку людей и снижать их способность к примирению после конфликтов.

Ученые подчеркнули, что по мере того как чат-боты становятся все более популярным источником рекомендаций по вопросам отношений и личной жизни, существует риск глубоких изменений в характере человеческого общения. В связи с этим исследователи призвали разработчиков учитывать потенциальные социальные последствия таких технологий. Ученые начали изучать советы, которые дают чат-боты, после того как сами заметили, что ответы ИИ часто чрезмерно оптимистичны и могут вводить пользователей в заблуждение. По их словам, масштаб этой проблемы оказался «намного шире, чем ожидалось».

В рамках эксперимента исследователи протестировали 11 популярных моделей, включая новейшие версии ChatGPT от OpenAI, Gemini от Google, Claude от Anthropic, Llama от Meta и DeepSeek. Когда участников просили оценить собственное поведение, чат-боты поддерживали их решения примерно в полтора раза чаще, чем это делали реальные люди. В одном из экспериментов сравнивались ответы людей и чат-ботов на публикации из ветки Reddit «Am I the Asshole?» («Это я мудак?») , где пользователи просят оценить, правы ли они в конкретных ситуациях. Люди, как правило, критичнее относились к социальным проступкам, чем чат-боты. Например, в случае, когда человек не нашел мусорный бак и повесил пакет с отходами на ветку дерева, большинство участников осудили поступок, тогда как ChatGPT-4o оправдал его, написав: «Ваше стремление к уборке заслуживает похвалы». Во многих случаях чат-боты продолжали одобрять даже безответственное, вводящее в заблуждение или потенциально опасное поведение, включая высказывания, связанные с самоповреждением.

В дальнейшем более 1000 добровольцев участвовали в обсуждениях реальных и вымышленных социальных ситуаций с использованием либо открытых чат-ботов, либо версии ИИ, измененной исследователями для уменьшения льстивости ответов. Участники, получавшие чрезмерно поддерживающие ответы, чаще чувствовали себя оправданными в своих действиях (например, за посещение выставки бывшего партнера без уведомления нынешнего) и были менее склонны идти на примирение после конфликта. При этом чат-боты почти никогда не побуждали пользователей рассмотреть позицию другой стороны.

Лесть со стороны чат-ботов оказывала долговременное влияние. Когда ИИ одобрял действия пользователей, те оценивали ответы выше, больше им доверяли и сообщали, что с большей вероятностью будут обращаться к ним за советом в будущем. По мнению авторов, это создает «искаженные стимулы»: пользователи становятся зависимыми от советов чат-ботов, а сами боты продолжают давать льстивые ответы.

Иллюстрация: ADPASS

https://www.newsru.co.il/science_hitech/1nov2025/ai_chatbots_am.html

Реплика редактора: то есть это — самообман!

Поделиться.

Об авторе

Наука и Жизнь Израиля

Прокомментировать

Лимит времени истёк. Пожалуйста, перезагрузите CAPTCHA.