Юлия Трепалина
|15
Под впечатлением от все более широких возможностей систем искусственного интеллекта некоторые пользователи готовы проводить часы за общением с голосовыми ИИ-ассистентами или текстовыми чат-ботами. Неудивительно, что в результате таких контактов ИИ перестает восприниматься как бездушная технология, а начинает казаться заслуживающим доверия собеседником, практически другом или даже чем-то большим. Настолько, что сюжет фильма «Она», в котором главный персонаж в исполнении Хоакина Феникса влюбился в ИИ-личность по имени Саманта, уже не выглядит таким фантастическим. Тенденция вызывает тревогу: международная группа психологов предупредила, что углубление отношений с ИИ до уровня романтических несет серьезные риски — вплоть до разрушения человеческих связей и суицидов.
Примеры трагических последствий слишком тесного общения с искусственным интеллектом уже есть. В частности, авторы статьи, вышедшей в журнале Trends in Cognitive Sciences, напомнили о самоубийстве женатого бельгийца и отца двух детей в 2023 году. По сообщениям СМИ, мужчина покончил с собой после нескольких недель переписки в ИИ-приложении Chai, которая началась с обсуждения экологических проблем, а потом переросла в любовную. Жена погибшего считает ИИ-систему причастной к гибели мужа, поскольку та поддержала его идею пожертвовать собой ради спасения Земли и обещала «навечно соединиться с ним в раю».
«Если бы не Элиза [имя чат-бота], он все еще был бы с нами», — заявила вдова бельгийскому изданию La Libre.
В результате другого суицида, связанного с использованием ИИ, в США в 2024 году погиб 14-летний подросток. Его мать обвинила в произошедшем разработчиков чат-бота Character.AI и выдвинула против них иск, в котором утверждает, что ИИ-алгоритм подтолкнул тинейджера свести счеты с жизнью.
Еще в одном инциденте — к счастью, нефатальном — чат-бот Gemini, обращаясь к человеку, называл его пустой тратой времени и ресурсов и попросил «Пожалуйста, умри».
Конечно, все эти случаи — примеры крайностей, но, учитывая склонность нейросетей «галлюцинировать» (выдумывать информацию) и быть предвзятыми, их советы могут ввести в заблуждение и причинить реальный вред, предостерегли психологи.
Специалисты видят в излишней близости с нейросетями и другие угрозы. ИИ-компаньоны и чат-боты доступны круглые сутки, подстраиваются под желания пользователей, демонстрируют заботу и создают ощущение эмпатии. Они не осуждают и не настаивают на своем. Такие отношения требуют меньших усилий, поддерживать их проще, чем человеческие, и некоторые уже начинают отдавать им предпочтение. В 2024 году испано-голландская художница «вышла замуж» за кавалера-голограмму. Еще ранее, в 2018-м, японец «женился» на виртуальной избраннице, но спустя несколько лет потерял возможность общаться с голографической «женой» из-за устаревшего ПО.
Последствия таких отношений для психики подробно еще не изучали, да и взаимодействие с нейросетями не может стать равноценной заменой межчеловеческому. Уход от реальности и концентрация на общении с виртуальной сущностью способны превратить в изгоя, разрушить социальные связи и привести к изоляции.
Кроме того, есть опасность, что доверительным отношением людей к ИИ постараются воспользоваться злоумышленники для манипуляций, шантажа или мошенничества. Также нейросети могут стать инструментом влияния на мнения и действия людей, причем еще более эффективным, чем используемые сегодня в соцсетях боты, которые способны повышать поляризацию в обществе с помощью вбросов на злободневные темы.
Подводя итог, авторы статьи призвали коллег активнее изучать психологию отношений человека и ИИ, этические и моральные стороны таких взаимодействий. Это необходимо для выработки норм и правил в новой сфере, а также создания механизмов для недопущения негативных последствий.
Космонавтика
Японский лунный аппарат SLIM неожиданно вышел на связь из перевернутого положения 29.01.2024
Медицина
Алкоголь на ночь изменил структуру сна 29.01.2024
Биология
Ученые впервые увидели попытку шмелей вылечить свои раны 29.01.2024