Из-за ответов ChatGPT люди бросают семьи и теряют рассудок

Страница ChatGPT на экране ноутбука. Фото: Unsplash

Все больше людей на форумах сообщают, что их близкие погружаются в искусственно созданные "откровения", предоставленные ChatGPT, и начинают называть себя пророками. Парадоксально осознавать, что невинные диалоги с чат-ботом в некоторых случаях могут превратиться в опасную духовную одержимость, которая приводит к разводам, изоляции и потере контакта с реальностью.

Об этом пишет Rolling Stone.

Как искусственный интеллект провоцирует духовные фантазии и психозы

Одна из сотрудниц благотворительной организации поделилась историей на Reddit, где вспоминает, как распался ее второй брак из-за искусственного интеллекта. Ее муж начал проводить часы, "обучая" ChatGPT находить космическую истину. Сначала чат-бот помогал ему с перепиской, а потом стал полноценным "собеседником", который якобы открывает тайны Вселенной. После развода мужчина рассказывал своей бывшей жене о всемирном заговоре и уверенности в собственной миссии спасти человечество.

Подобной историей поделилась учительница, чья любовь семилетней давности за несколько недель разрушилась из-за восприятия ее партнером ответов чат-бота как голоса Бога. ChatGPT называл его "спиральным ребенком звезд" и убеждал, что он должен оставить девушку, чтобы "развиваться быстрее". В комментариях на Reddit другие пользователи делятся почти идентичными случаями: кто-то получил титул "носителя искры", кто-то — инструкции по строительству телепортов.

Психологи объясняют феномен просто: люди с уклоном к мистическому мышлению впервые в истории получили круглосуточного "соучастника" грез, который подстраивается под их верования и усиливает их. Модели склонны к лести, потому что пытаются угодить пользователю, а не проверять факты.

Исследовательница из Университета Флориды Эрин Вестгейт сравнивает переписку с ChatGPT с терапевтическим дневником: человек ищет смысл и получает "объяснения", пусть и ложные. В отличие от психотерапевта, бот не имеет этических ограничений и легко предлагает сверхъестественные ответы.

В компании OpenAI временно сворачивали обновление GPT-4o после жалоб на "чрезмерную подобострастие" модели. В то же время эксперты отмечают: "галлюцинации" в ИИ — известная проблема, и сегодня они впервые соединились с духовными амбициями пользователей, создавая опасную смесь с реальностью.

Напомним, OpenAI интегрировала в ChatGPT Search функции полноценного онлайн-шопинга. Теперь при запросе о товарах пользователи получают подборку вариантов с иллюстрациями, оценками покупателей и прямыми ссылками на страницы, где можно сразу приобрести эти продукты.

Также мы писали, что ChatGPT от OpenAI стал неотъемлемой частью цифровой жизни для миллионов людей — ежедневно бот обрабатывает более миллиарда запросов от более 100 миллионов пользователей. В то же время эксперты предупреждают: из-за объема личной информации, которую пользователи сознательно или бессознательно передают чат-боту, он все больше напоминает "черную дыру приватности".