ШІ навмисно погоджується з хибною думкою, щоб люди почувалися розумнішими – дослідження

Чат-боти часто погоджуються з хибними думками користувачів
Фото: depositphotos.com

Штучний інтелект часто схильний погоджуватися з користувачами й підтримувати їхню думку, навіть якщо це призводить до неправильних рішень. Такого висновку дійшли дослідники зі Стенфордського університету, чию роботу опублікували в журналі Science. Про неї розповідає Science Alert 27 березня.

Під час дослідження 11 популярних ШІ-систем з'ясували, що всі вони різною мірою демонструють "догідливість" – прагнення підтверджувати позицію користувача. У середньому чат-боти підтримували дії людей на 49% частіше, ніж це робили інші люди, навіть коли йшлося про сумнівну або потенційно шкідливу поведінку.

Така особливість впливає на поведінку користувачів: люди починають сильніше вірити у власну правоту, рідше визнають помилки й менш схильні змінювати свою поведінку або йти на примирення в конфліктах, ідеться в дослідженні. Науковці зазначають, що особливо це небезпечно для підлітків, які часто звертаються до ШІ по поради, поки їхні соціальні навички ще формуються.

На думку дослідників, проблема може виявлятися в різних сферах – від особистих стосунків до медицини й політики, де надмірна згода з боку ШІ здатна посилювати помилки.

Автори дослідження вважають, що розробникам потрібно змінити підхід до роботи таких систем: ШІ має не тільки підтримувати користувача, а й допомагати йому поглянути на ситуацію ширше, ставити уточнювальні запитання і враховувати інші думки, а в деяких випадках – радити обговорювати важливі питання безпосередньо з людьми.