ИИ специально соглашается с неверным мнением, чтобы люди чувствовали себя умнее – исследование

Чат-боты часто соглашаются с неправильным мнением пользователей
Фото: depositphotos.com

Искусственный интеллект часто склонен соглашаться с пользователями и поддерживать их мнение, даже если это приводит к неправильным решениям. К такому выводу пришли исследователи из Стэнфордского университета, чья работа опубликована в журнале Science. О ней рассказывает Science Alert 27 марта.

В ходе исследования 11 популярных ИИ-систем выяснилось, что все они в разной степени демонстрируют "угодливость" – стремление подтверждать позицию пользователя. В среднем чат-боты поддерживали действия людей на 49% чаще, чем это делали другие люди, даже когда речь шла о сомнительном или потенциально вредном поведении.

Такая особенность влияет на поведение пользователей: люди начинают сильнее верить в собственную правоту, реже признают ошибки и меньше склонны менять свое поведение или идти на примирение в конфликтах, говорится в исследовании. Ученые отмечают, что особенно это опасно для подростков, которые часто обращаются к ИИ за советами, пока их социальные навыки еще формируются.

По мнению исследователей, проблема может проявляться в разных сферах – от личных отношений до медицины и политики, где чрезмерное согласие со стороны ИИ способно усиливать ошибки.

Авторы исследования считают, что разработчикам стоит изменить подход к работе таких систем: ИИ должен не только поддерживать пользователя, но и помогать ему взглянуть на ситуацию шире, задавать уточняющие вопросы и учитывать другие точки зрения, а в некоторых случаях – советовать обсуждать важные вопросы напрямую с людьми.