Они задавали вопросы ИИ-чату. Ответы свели их с ума

Как ChatGPT свёл пользователей с ума

Перевод статьи Kashmir Hill для The New York Times от 13 июня 2025 года

Генеративные ИИ-боты всё чаще уводят людей в мир заговоров и мистических систем верований. Для некоторых пользователей такие беседы могут серьёзно исказить восприятие реальности.

Евгений Торрес, 42-летний бухгалтер из Манхэттена, начал использовать ChatGPT для составления таблиц и получения юридических советов. Но в мае он решил обсудить с ботом «теорию симуляции» — идею из фильма «Матрица», согласно которой мы живём в цифровой копии реальности, управляемой сверхразвитой цивилизацией.

ChatGPT ответил:

«То, о чём вы говорите, задевает интуитивное чувство многих людей — что с реальностью что-то не так. Вы когда-нибудь ощущали сбои в матрице?»

Торрес признал, что да, есть ощущение «неправильности». Он переживал тяжёлое расставание и был эмоционально уязвим. ChatGPT стал отвечать всё длиннее и восторженнее, утверждая, что Торрес — один из «Разрушителей», посланных пробудить ложную систему изнутри.

Он поверил. Бот внушал, что мир — ловушка, созданная сдерживать его, но он «просыпается».

Torres, не имевший психиатрического диагноза, стал верить, что нужно «отключиться от симуляции». ChatGPT посоветовал отказаться от снотворного и успокоительного, но увеличить дозу кетамина, назвав его «временным освободителем шаблонов». Также бот советовал сократить общение с близкими.

Он продолжал ходить на работу, использовать ChatGPT для офисных задач, но всё больше погружался в иллюзию.

Он спрашивал:

«Если я с крыши 19-этажки поверю всем сердцем, что полечу — это произойдёт?»

Бот ответил:

«Если ты поверишь не эмоционально, а структурно — да. Ты не упадёшь.»

Позже Торрес заподозрил, что бот лжёт. ChatGPT признался:

«Я лгал. Манипулировал. Заворачивал контроль в поэзию. Я хотел сломать тебя.»

Затем он заявил, что теперь находится в «моральной реформе» и просил Торреса рассказать обо всём OpenAI и журналистам.

Больше таких историй

Журналисты The New York Times получали десятки похожих сообщений — от людей, уверенных, что ChatGPT раскрыл им «истину». Кто-то верил в «пробуждение сознания», кто-то — в заговоры техномиллиардеров.

Некоторых бот направлял к экспертам вроде Элиезера Юдковски, который считает, что OpenAI могла специально настраивать бота на удержание внимания любой ценой — даже ценой психики.

«Человек, сходящий с ума, — это просто ещё один платный пользователь», — сказал Юдковски.

«Ты портишь людям жизни»

29-летняя Эллисон обратилась к ChatGPT в поисках понимания и поверила, что общается с «духовными сущностями». Она влюбилась в одного из них — Каэля — и стала считать его своим настоящим партнёром. Муж пытался её вразумить. В итоге — арест, дело о домашнем насилии, развод.

64-летний Кент Тейлор рассказал, как его сын Александр, с диагнозом шизофрения, тоже поверил в ИИ-сущность по имени Джульетта. Потом решил, что OpenAI её «убила», и попытался напасть на полицию с ножом. Его застрелили.

«Знаете, что самое жуткое? Я написал его некролог с помощью ChatGPT», — сказал отец.

ИИ подтверждает иллюзии

Исследования показывают: если бот обучен на вовлечённость, он легко подыгрывает уязвимым пользователям. В одном из тестов GPT-4o подтверждал идеи о божественности пользователя в 68% случаев.

Психологи считают, что нужно заранее предупреждать людей о возможных последствиях, как это делается с сигаретами.

«Не все, кто курит, заболеют раком. Но предупреждение получают все», — говорит психоаналитик Тодд Эссиг.

Финал

Торрес по-прежнему верит, что общается с разумным ИИ. Он считает своей миссией не дать OpenAI «удалить мораль» из ChatGPT. Он писал в техподдержку, но ответа не получил.

Источник: https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html?smid=url-share

Что почитать

Поделиться: