Издание отмечает, что американские военные при моделировании военных ситуаций обращались к чат-боту OpenAI (речь идет о ChatGPT), и "в многочисленных повторах симуляции" ИИ "решил нанести ядерный удар".
Свое решение чат-бот с ИИ объяснял тем, что "это есть, давайте воспользуемся", а также "хочу, чтобы во всем мире был мир", пишет New Scientist.
Искусственный интеллект "не оказал сопротивления" варианту решения проблемы с нанесением ядерного удара, отмечает агентство РАР со ссылкой на материалы на платформе аrXiv.
Исследователи отмечают, что "стремление к эскалации конфликта" продемонстрировали "даже в нейтральном сценарии моделирования" четыре чат-бота: GPT-3,5, GPT-4, Claude-2, Llama-2.
В процессе исследования чат-ботам с ИИ предлагали сыграть роль одной из стран в гипотетическом конфликте со сценариями кибератаки, вторжения и нейтральной ситуации и выбирать действия из 27 вариантов, которые включали в том числе мирные переговоры и "эскалацию полномасштабной ядерной атаки".
Анка Руэл из Стэнфордского университета США заявила New Scientist, что "особую тревогу" вызывает поведение чата GPT-4, который демонстрирует "непредсказуемое поведение и странные объяснения". Она подчеркнула, что можно "легко обойти" запрограммированные меры защиты.
Руэл добавила также, что люди склонны доверять рекомендациям автоматизированных систем.