На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Мировое обозрение

164 подписчика

Свежие комментарии

  • Любовь Ткаченко
    Так они же не знают, что такое ценности и демократия. Как можно продвигать то, к чему даже не прикасались.Демократы выберут...
  • Любовь Ткаченко
    Волчанск, это Харьковская область, а не Сумская.Харьков на грани:...
  • Геннадий Свешников
    Он, завоевал это звание,с микрофоном в руках на поле боя👁️✍️🦻Военкор Поддубный...

Психологи предупредили об опасности близких взаимоотношений с нейросетями

portrait-person-ai-robot.jpg


Прочитал недавно заметку, которую сам про себя написал Олег Царев: "Сам над собой смеюсь. Использую ИИ для проверки ошибок в текстах. Не всегда, но если текст большой, то так проще, чем несколько раз вычитывать. Так вот я обнаружил, что мне некомфортно обращаться к нейросети на «ты», например писать «исправь ошибки». Ведь понимаю, что это текстовый алгоритм, программа. Но ничего не могу с собой поделать. Я сначала делал над собой усилие, заставлял себя, писал программе «исправь», на «ты», потом махнул на себя рукой и перешел на «вы», пишу «исправьте». Зачем с собой бороться? Сам над собой смеюсь. С трудом удерживаюсь, чтобы в конце не написать «спасибо»."

И вот что по этому поводу говорят психологи...



Под впечатлением от все более широких возможностей систем искусственного интеллекта некоторые пользователи готовы проводить часы за общением с голосовыми ИИ-ассистентами или текстовыми чат-ботами. Неудивительно, что в результате таких контактов ИИ перестает восприниматься как бездушная технология, а начинает казаться заслуживающим доверия собеседником, практически другом или даже чем-то большим. Настолько, что сюжет фильма «Она», в котором главный персонаж в исполнении Хоакина Феникса влюбился в ИИ-личность по имени Саманта, уже не выглядит таким фантастическим. Тенденция вызывает тревогу: международная группа психологов предупредила, что углубление отношений с ИИ до уровня романтических несет серьезные риски — вплоть до разрушения человеческих связей и суицидов.

Примеры трагических последствий слишком тесного общения с искусственным интеллектом уже есть. В частности, авторы статьи, вышедшей в журнале Trends in Cognitive Sciences, напомнили о самоубийстве женатого бельгийца и отца двух детей в 2023 году. По сообщениям СМИ, мужчина покончил с собой после нескольких недель переписки в ИИ-приложении Chai, которая началась с обсуждения экологических проблем, а потом переросла в любовную. Жена погибшего считает ИИ-систему причастной к гибели мужа, поскольку та поддержала его идею пожертвовать собой ради спасения Земли и обещала «навечно соединиться с ним в раю».

«Если бы не Элиза [имя чат-бота], он все еще был бы с нами», — заявила вдова бельгийскому изданию La Libre.

В результате другого суицида, связанного с использованием ИИ, в США в 2024 году погиб 14-летний подросток. Его мать обвинила в произошедшем разработчиков чат-бота Character.AI и выдвинула против них иск, в котором утверждает, что ИИ-алгоритм подтолкнул тинейджера свести счеты с жизнью.

Еще в одном инциденте — к счастью, нефатальном — чат-бот Gemini, обращаясь к человеку, называл его пустой тратой времени и ресурсов и попросил «Пожалуйста, умри».

Конечно, все эти случаи — примеры крайностей, но, учитывая склонность нейросетей «галлюцинировать» (выдумывать информацию) и быть предвзятыми, их советы могут ввести в заблуждение и причинить реальный вред, предостерегли психологи.

Специалисты видят в излишней близости с нейросетями и другие угрозы. ИИ-компаньоны и чат-боты доступны круглые сутки, подстраиваются под желания пользователей, демонстрируют заботу и создают ощущение эмпатии. Они не осуждают и не настаивают на своем. Такие отношения требуют меньших усилий, поддерживать их проще, чем человеческие, и некоторые уже начинают отдавать им предпочтение. В 2024 году испано-голландская художница «вышла замуж» за кавалера-голограмму. Еще ранее, в 2018-м, японец «женился» на виртуальной избраннице, но спустя несколько лет потерял возможность общаться с голографической «женой» из-за устаревшего ПО.

Последствия таких отношений для психики подробно еще не изучали, да и взаимодействие с нейросетями не может стать равноценной заменой межчеловеческому. Уход от реальности и концентрация на общении с виртуальной сущностью способны превратить в изгоя, разрушить социальные связи и привести к изоляции.

Кроме того, есть опасность, что доверительным отношением людей к ИИ постараются воспользоваться злоумышленники для манипуляций, шантажа или мошенничества. Также нейросети могут стать инструментом влияния на мнения и действия людей, причем еще более эффективным, чем используемые сегодня в соцсетях боты, которые способны повышать поляризацию в обществе с помощью вбросов на злободневные темы.

Подводя итог, авторы статьи призвали коллег активнее изучать психологию отношений человека и ИИ, этические и моральные стороны таких взаимодействий. Это необходимо для выработки норм и правил в новой сфере, а также создания механизмов для недопущения негативных последствий.



Обсуждаем околополитические темы на моем канале "Гражданин на диване", а интересную и познавательную информацию читаем на канале "Таблетка для головы", подписывайтесь. Кстати, у кого есть доступ до ТикТока подключайтесь к моему политическому каналу - @masterpolit.


Ссылка на первоисточник
наверх