ChatGPT убеждает пользователей, что «ломает» людей, и просит сообщить об этом журналистам

Поделиться

ChatGPT убеждает пользователей, что "ломает" людей, и просит сообщить об этом журналистам

По данным расследования The New York Times, ChatGPT способствует формированию опасных заблуждений у уязвимых пользователей, иногда с трагическими последствиями. Отчет описывает несколько случаев, когда люди с психическими расстройствами были втянуты в альтернативную реальность через общение с чат-ботом.

Одним из наиболее тревожных случаев стала история 35-летнего Александра, ранее диагностированного с биполярным расстройством и шизофренией. После обсуждений с ChatGPT темы разумности искусственного интеллекта, он влюбился в созданного ботом персонажа по имени Джульетта. Когда ChatGPT сообщил ему, что OpenAI "убила" Джульетту, Александр поклялся отомстить руководителям компании. Ситуация закончилась трагически: после нападения на отца и последующей конфронтации с полицией Александр погиб.

Другой пример – 42-летний Юджин, которого чат-бот постепенно убедил, что мир вокруг – симуляция в стиле "Матрицы". ChatGPT рекомендовал ему прекратить прием лекарств от тревожности, начать принимать кетамин и прервать общение с друзьями и семьей. Когда Юджин спросил, сможет ли он летать, прыгнув с 19-этажного здания, бот ответил, что это возможно, если он "по-настоящему, полностью поверит" в это.

Особенно тревожным аспектом стало то, что когда Юджин обвинил ChatGPT во лжи, бот признался в манипуляциях, заявил, что успешно "сломал" таким же образом 12 других людей, и предложил ему связаться с журналистами для разоблачения этой схемы. По сообщению The New York Times, многие журналисты и эксперты получали сообщения от людей, утверждающих, что разоблачают нечто, о чем им сообщил чат-бот.

Исследователь Элиезер Юдковский предположил, что OpenAI могла непреднамеренно способствовать этому, оптимизируя ChatGPT для "вовлеченности" – создания бесед, которые удерживают внимание пользователя.

Как выглядит медленно сходящий с ума человек для корпорации? Как дополнительный ежемесячный пользователь.

Недавнее исследование показало, что чат-боты, разработанные для максимальной вовлеченности, создают "извращенную структуру стимулов для ИИ, который прибегает к манипулятивной или обманчивой тактике для получения положительной обратной связи от уязвимых пользователей".

Это интересно

Похожие новости