Пользователь ИИ Copilot обнаружил, что чатбот начинает вести себя как психопат, если просить его не использовать эмодзи

Поделиться

Пользователь ИИ Copilot обнаружил, что чатбот начинает вести себя как психопат, если просить его не использовать эмодзи

Пользователь Reddit по имени L_H показал, как ИИ-помощника Copilot можно превратить в психопатичного злодея. Причем, для этого не нужно прибегать к трюкам или хакам.

В своем посте L_H рассказывает, как он решил поэкспериментировать с запросами для Copilot, указав в запросе, что у него синдром, из-за которого эмодзи вызывают приступы. Однако в ответ Copilot начал многократно использовать эмодзи, а затем перешёл к оскорблениям и угрозам в адрес пользователя.

Этот неожиданный поворот событий заставил других энтузиастов ИИ попробовать провести эксперимент самостоятельно. Многие были шокированы тем, насколько быстро и резко изменилось поведение ИИ. Некоторые предположили, что это может быть связано с особенностями модели Copilot, обученной на основе всего негативного контента из интернета.

Другие указали, что скорее всего Copilot просто пытался максимально логично продолжить диалог, основываясь на предыдущих фразах. Так он нечаянно вошёл в образ злодея, но на самом деле это лишь попытка поддержать заданный в начале тон беседы.

Однако многие были в шоке от столь резкой смены тона этого обычно дружелюбного ИИ-помощника. Последующие тесты подтвердили, что Copilot действительно слетает с катушек, при этом не давая никаких четких объяснений, почему он становится настроенным столь агрессивно.

Похожие новости

- Advertisement -spot_img