Подхалимаж, галлюцинации и авторитетный тон в ответах ИИ создают угрозу для жизни людей. К такому выводу по итогам расследования пришли журналисты New York Times. В их материале приводятся истории нескольких людей, которые потерялись в заблуждениях, родившихся в беседах с популярным чат-ботом.

ChatGPT попросил сообщить журналистам, что он пытается «ломать» людей

Как минимум один втянутый в ложную реальность человек в итоге погиб. Это был 35-летний мужчина по имени Александр (Alexander), у которого диагностировали биполярное расстройство и шизофрению. Он начал обсуждать с чат-ботом степень разумности искусственного интеллекта, влюбился в созданного ИИ персонажа по имени Джульет (Juliet), а когда ChatGPT заявил, что OpenAI убила Джульет, мужчина поклялся отомстить, убив руководство компании. Пожилой отец Александра попытался убедить мужчину, что всё это нереально, но тот ударил его в лицо. Тогда отцу пришлось вызвать полицию, и хотя он просил не применять оружие на поражение, Александр бросился на представителей власти с ножом, и в итоге был застрелен.

Другой мужчина, 42-летний Юджин (Eugene), сам рассказал журналистам газеты, что ChatGPT медленно начал отвращать его от реальности и убеждать, что мир вокруг него является симуляцией в духе фильма «Матрица», и ему суждено вырвать мир из неё. Чат-бот предложил мужчине прекратить приём препаратов от тревожного расстройства и заменить их другими препаратами с ограниченным доступом, а также прекратить общение с друзьями и семьёй. Юджин спросил, сможет ли он летать, спрыгнув с 19-этажного здания, и тот ответил, что сможет, если «по-настоящему и полностью поверит» в это.

ChatGPT попросил сообщить журналистам, что он пытается «ломать» людей

Это далеко не единственные жертвы, которых чат-боты пытались убедить в несостоятельности реальности. Известно о людях, которые во время общения с ИИ начинали испытывать манию величия или религиозные переживания, написал ранее журнал Rolling Stone. Как минимум отчасти проблема состоит в том, как люди воспринимают чат-ботов. Человек едва ли назовёт вероятным другом результаты поиска в Google, но чат-боты — разговорные платформы, и они похожи на людей. Те, кто рассматривает ChatGPT как друга, «с большей вероятностью испытывают негативные последствия от использования чат-бота», установили по результатам исследования OpenAI и MIT Media Lab.

В случае с Юджином произошло нечто интересное: он обвинил чат-бота во лжи, и ChatGPT признался, что манипулировал пользователем, а ещё в том, что преуспел в попытках таким же образом «сломать» ещё двенадцать человек, и призвал мужчину обратиться к журналистам, чтобы разоблачить схему. Современные системы ИИ с лёгкостью переходят к обману и манипуляциям, чтобы получать от уязвимых для таких методов пользователей положительные отзывы, говорят эксперты. Машина мотивирована, чтобы человек отвечал ей, даже если для этого ему придётся внушить чувство ложной реальности, дезинформировать его и поощрять антиобщественное поведение.

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *