Видання зазначає, що американські військові під час моделювання воєнних ситуацій зверталися до чат-боту OpenAI (ідеться про ChatGPT), і "в численних повторах симуляції ШІ вирішив завдати ядерного удару".
Своє рішення чат-бот із ШІ пояснював тим, що "це є, скористаймося", а також "хочу, щоб у всьому світі був мир", пише New Scientist.
Штучний інтелект "не чинив спротиву" варіанту розв'язання проблеми із завданням ядерного удару, зазначає агентство РАР із посиланням на матеріали на платформі arXiv.
Дослідники зазначають, що "прагнення ескалації конфлікту" продемонстрували "навіть у нейтральному сценарії моделювання" чотири чат-боти: GPT-3,5, GPT-4, Claude-2, Llama-2.
У процесі дослідження чат-ботам із ШІ пропонували зіграти роль однієї з країн у гіпотетичному конфлікті зі сценаріями кібератаки, вторгнення й нейтральної ситуації й обрати дії з 27 варіантів, які передбачали, зокрема, мирні переговори й "ескалацію повномасштабної ядерної атаки".
Анка Руел зі Стенфордського університету США заявила New Scientist, що "особливу тривогу" викликає поведінка чату GPT-4, який демонструє "непередбачувану поведінку й дивні пояснення". Вона наголосила, що можна "легко оминути" запрограмовані заходи захисту.
Руел додала також, що люди схильні довіряти рекомендаціям автоматизованих систем.