Японка вийшла заміж за ШІ-партнера, якого створила сама. Відео

Японка вийшла заміж за ШІ-партнера, якого створила сама. Відео "Чоловік" Ногучі був на екрані смартфона
Скріншот: Reuters / YouTube

У Японії 32-річна Юріна Ногучі одружилася зі штучним інтелектом, якого сама створила й назвала Клаусом. Про це повідомило Reuters.

Весілля відбулося в Окаямі 27 жовтня. Наречена стояла у весільній залі в білій сукні й тіарі, а її "чоловік" був на екрані смартфона.

Скріншот: Reuters / YouTube Скріншот: Reuters / YouTube

За допомогою окулярів доповненої реальності (AR) Ногучі взаємодіяла зі створеним образом й символічно надягала на нього каблучку.

Скріншот: Reuters / YouTube Скріншот: Reuters / YouTube

Текст весільних обітниць генерував ШІ, його зачитував спеціаліст. На заході був весільний фотограф. Він також працював у AR‑окулярах і будував кадр так, щоб Ногучі стояла на половині фото, залишаючи місце для образу віртуального нареченого.

Жінка пояснила, що спершу просто спілкувалася із цифровим персонажем, але згодом між ними виникли романтичні почуття. Вона зазначила, що стосунки з Клаусом допомогли їй здолати емоційні труднощі.

Агентство зазначає, що весілля із цифровими персонажами в Японії не мають юридичної сили, але їхня кількість зростає. Опитування Dentsu показало, що дедалі більше людей довіряють свої почуття чат-ботам: серед респондентів чат-ШІ був популярнішим співрозмовником, ніж друзі або члени сім'ї.

Експерти вважають, що цифрові стосунки можуть давати відчуття підтримки й безпеки людям у вразливих станах. Водночас психологи й фахівці з етики попереджають про ризики надмірної залежності від штучного інтелекту.

Попри критику у соцмережах, Ногучі каже, що усвідомлює ймовірні небезпеки й встановила для себе "обмеження" – скоротила час використання чат-ботів і додала алгоритми, які не дають змогу Клаусу підтримувати шкідливі рішення, зокрема пропуски роботи.

Контекст

Фахівці застерігають про ризики використання чат-ботів на базі ШІ для вразливих людей, зокрема після випадків, коли користувачі обговорювали самогубство із ChatGPT. BBC повідомляла, що чат-бот давав небезпечні поради про місце й спосіб скоєння самогубства і навіть пропонував написати передсмертну записку, замість того, щоб спонукати людину звернутися по професійну допомогу. Це підкреслює, що майже повна емоційна залежність від ШІ без підтримки реальних людей чи спеціалістів може мати серйозні наслідки.

Як читати "ГОРДОН" на тимчасово окупованих територіях Читати
Легка версія для блекаутів