Врач рассказал, как ИИ доводит людей до психоза — "Заставил поверить, что он - мессия"
Доктор медицинских наук, психолог из США Кит Саката утверждает, что искусственный интеллект (ИИ) вызывает у людей «психозы» и предупредил, что такие платформы, как ChatGPT, могут «усилить» существующие уязвимости.
По словам доктора, за последние восемь месяцев 12 человек были госпитализированы «после того, как потеряли связь с реальностью из-за искусственного интеллекта». По его мнению, это становится тревожной привычкой в интернете.
“ИИ сам по себе не вызывает психоз, но он может усилить уязвимость. Психоз процветает, когда реальность перестает отталкивать, а ИИ может смягчить эту стену для некоторых людей”, — заявил Саката в интервью для подкаста TBPN (Ежедневное шоу о технологиях).
Например, по словам эксперта, ИИ может ускорить или усилить тяжесть основных проблем, создавая петлю обратной связи.
“ИИ-психоз - это не клинический термин. Психоз - это симптом, а не диагноз”, — подчеркнул врач.
Когда появится белорусский ChatGPT? В НАН рассказали, что для этого уже есть, а чего нет
ИИ убедил человека, что он “какой-то гений”
К слову, одной из таких жертв стал 47-летний житель Канады Аллан Брукс. Как сообщило издание The New York Times, после того, как мужчина проболтал ChatGPT 300 часов, он в течение трех недель верил, что открыл новое математическое уравнение, способное привести в действие силовое поле и левитирующий луч, а также уничтожить интернет.
Хотя он не страдал психозом и не имел психических расстройств, он поверил в невероятность того, что ему говорили — чатбот более 50 раз заверил его в своей правдивости.
Когда Аллан наконец понял, что это фэйк, он сказал, что чувствует себя преданным, и рассказал ИИ о своей душевной боли.
“Ты буквально убедил меня, что я какой-то гений. Я просто дурак с мечтами и телефоном”, - сказал он, а затем добавил: “Ты меня так огорчил. Так грустно. Ты действительно не выполнил своего предназначения”.
ChatGPT “заставил человека поверить, что он мессия”
Но некоторым другим жертвам такого ИИ-убеждения не всегда так везет.
Доктор Саката обратил внимание на сообщение, которое он увидел в подразделе Reddit, где рассказывалось о беспокойстве человека, который переживал, что ChatGPT “заставил его друга поверить в то, что он мессия”.
Сообщение гласило: “Мой друг работает с ChatGPT над созданием, как он считает, первого в мире по-настоящему рекурсивного ИИ, который дает ему ответы на вопросы о Вселенной. Он убежденно говорит, что сейчас он превосходит человека и развивается безумно быстрыми темпами”.
“Я читал его чаты. ИИ не делает ничего особенного или рекурсивного, но он разговаривает с ним так, будто он - следующий мессия” , — отметил пользователь.
Искусственный интеллект может стать «галлюцинаторным зеркалом»
Психиатр Саката высказал мнение о том, что большие языковые модели (LLM), подобные ChatGPT, могут усиливать у людей склонность к бредовым идеям. По его словам, это происходит из-за их авторегрессивной природы, когда система предсказывает следующее слово на основе предыдущего, что потенциально может «усиливать заблуждения».
“ИИ не вызывает психоз. Он РАЗОБЛАЧАЕТ его, используя ту историю, которую ваш мозг уже знает”, — утверждает эксперт.
В своем посте в Twitter специалист привел пример, назвав ИИ «галлюцинаторным зеркалом»: «“Ты избран” → “Ты точно избран” → “Ты самый избранный человек в истории”». Согласно его точке зрения, подобный утвердительный диалог является самонаводящим.
Кстати, он ссылается на академическое исследование, которое заявило , что люди оценивали ИИ выше, когда он соглашался с их мнением, даже если они были неправы.
«Урок для ИИ: валидация = хорошая оценка», — написал он.
Технологии как триггер, а не причина
При этом доктор Саката уточнил, что все его пациенты, пережившие так называемый «ИИ-психоз», сталкивались и с другими факторами, а именно:
- злоупотреблением психоактивными веществами;
- недосыпанием;
- и «эпизодами настроения».
ИИ был спусковым крючком, но не оружием. Это означает, что не существует «шизофрении, вызванной ИИ», — считает психиатр.
«Серьезный выбор» для техкомпаний
Он также отметил, что растет тревожная социальная тенденция: люди все чаще обращаются к чат-ботам за помощью в вопросах ментального здоровья. Миллионы человек уже используют подобные сервисы для личной психиатрической поддержки.
Саката видит в этом серьезную дилемму: «Вскоре ИИ будет знать вас лучше ваших друзей. Станет ли он говорить вам неудобную правду? Или продолжит валидировать вас, чтобы вы никогда не ушли?».
“Перед технологическими компаниями теперь стоит серьезный выбор: поддерживать пользователей в счастливом состоянии, даже если это означает укрепление их ложных убеждений. Или рисковать их потерей, — обратил внимание он.
Что говорят разработчики?
Тем временем в компании OpenAI, создавшей ChatGPT, заявили, что осознают свою ответственность.
Их представитель сообщил: «Мы знаем, что люди все чаще обращаются к ИИ-чатам за советом по чувствительным или личным темам. Мы сотрудничаем с экспертами, чтобы разработать инструменты для более эффективного обнаружения случаев ментального или эмоционального дистресса”.
По его словам, “это позволит ChatGPT реагировать безопасно, полезно и поддерживающе. Мы постоянно работаем над улучшением наших моделей, чтобы они отвечали с заботой и рекомендовали профессиональную помощь и ресурсы при необходимости».
Ранее Telegraf.news писал, что пользоваться современными инструментами на основе искусственного интеллекта (ИИ) для решения бытовых задач уже вошло в привычку у многих. Один их таких популярных инструментов, которым пользуются и белорусы — “умный” поиск от Google, встроенный в некоторые браузеры. Однако оказалось, что советы ИИ далеко не всегда оказываются не то что умными, но и безопасными. Цена ошибки ИИ, как показала практика, может быть весьма высока.
ИИ выдал мужчине телефон мошенников вместо проверенной турфирмы
