В ходе исследования 11 популярных ИИ-систем выяснилось, что все они в разной степени демонстрируют "угодливость" – стремление подтверждать позицию пользователя. В среднем чат-боты поддерживали действия людей на 49% чаще, чем это делали другие люди, даже когда речь шла о сомнительном или потенциально вредном поведении.
Такая особенность влияет на поведение пользователей: люди начинают сильнее верить в собственную правоту, реже признают ошибки и меньше склонны менять свое поведение или идти на примирение в конфликтах, говорится в исследовании. Ученые отмечают, что особенно это опасно для подростков, которые часто обращаются к ИИ за советами, пока их социальные навыки еще формируются.
По мнению исследователей, проблема может проявляться в разных сферах – от личных отношений до медицины и политики, где чрезмерное согласие со стороны ИИ способно усиливать ошибки.
Авторы исследования считают, что разработчикам стоит изменить подход к работе таких систем: ИИ должен не только поддерживать пользователя, но и помогать ему взглянуть на ситуацию шире, задавать уточняющие вопросы и учитывать другие точки зрения, а в некоторых случаях – советовать обсуждать важные вопросы напрямую с людьми.