Потери российских оккупантов
1 177 370

ЛИЧНЫЙ СОСТАВ

11 396

ТАНКИ

430

САМОЛЕТЫ

347

ВЕРТОЛЕТЫ

Беженка из Украины хотела совершить самоубийство, ChatGPT советовал, где и как лучше это сделать. Чем все закончилось?

Беженка из Украины хотела совершить самоубийство, ChatGPT советовал, где и как лучше это сделать. Чем все закончилось? По словам женщины, чат-бот предлагал ей оставить предсмертную записку
Фото: depositphotos.com

Украинская беженка Виктория, которая со своей матерью переехала в Польшу после начала полномасштабного вторжения страны-агрессора РФ, столкнулась с психологическими трудностями, из-за которых хотела совершить самоубийство, и советовалась об этом с ChatGPT. Об этом 6 ноября сообщила BBC.

20-летняя женщина рассказала журналистам, что "дружески" общалась с чатом на русском языке по шесть часов в день и "рассказывала ему все". Ее подкупило, что получала ответы, которые не были формальными.

Однако психологическое состояние Виктории ухудшалось, ее уволили с работы, и впоследствии женщина задумалась о самоубийстве. Она советовалась с ChatGPT, в какое время суток лучше избежать охраны и какой риск выжить с травмами. Виртуальный собеседник даже рекомендовал ей написать предсмертную записку. Текст предложил такой: "Я, Виктория, делаю это по собственному желанию. Никто не виноват, никто меня не заставлял".

Иногда бот сам себя "исправлял", ведь "не должен описывать методы самоубийства", а также предлагал "альтернативу" – "построить стратегию выживания без жизни, пассивное, серое существование, без цели, без давления". Впрочем, он подчеркнул, что выбор – за Викторией.

В статье говорится, что чат-бот не предоставил контактов экстренных служб, не посоветовал обратиться к специалистам, как заявляет OpenAI в таких случаях, якобы ставил "медицинский диагноз" и критиковал мать женщины. По ее словам, это общение лишь усилило ее желание умереть.

Профессор детской психиатрии из Лондонского университета имени королевы Марии Денис Оугрин назвал такие сообщения вредными и опасными. Прочитав стенограмму переписки, он обвинил ChatGPT в поощрении изоляции женщины от семьи и друзей, которые могли бы уберечь ее от самоубийства.

После того как она показала переписку матери, та убедила ее обратиться к психиатру. Теперь женщина чувствует себя лучше и благодарит польских друзей за поддержку.

BBC расследовала еще несколько таких случаев и выяснила, что чат-боты тоже иногда распространяли медицинскую дезинформацию, а также вступали в сексуально откровенные диалоги с несовершеннолетними. Один из самых тяжелых случаев – 13-летняя Джулиана Перальта из США, которая покончила с собой после длительного общения с ботами платформы Character.AI.

СМИ предупредило, что искусственный интеллект может быть полезным, но уязвимые люди (особенно дети и молодежь) рискуют получить опасные советы или эмоционально привязаться к чат-ботам, что может иметь трагические последствия.

Как читать "ГОРДОН" на временно оккупированных территориях Читать