Telegraf.news

Пользователи ChatGPT по всему миру пытаются заставить ИИ посчитать до миллиона. Почему не получается?

Пользователи ChatGPT по всему миру пытаются заставить ИИ посчитать до миллиона. Почему не получается?
Подпишитесь на Телеграф:
Редакция

В соцсетях появился новый тренд: пользователи со всего мира пытаются заставить ChatGPT досчитать до миллиона. Но искусственный интеллект проявляет невероятную изобретательность, всячески уклоняясь от этой задачи. Почему же один из самых продвинутых чат-ботов отказывается выполнять приказы? Эксперты нашли ответ.

Так, в TikTok набрало большую популярность (более миллиона просмотров) видео русскоязычного блогера. В ролике парень попросил ИИ посчитать от 0 до 1 миллиона. И ответ чат-бота очень его удивил:

“Это, конечно, заняло бы какое-то время, если бы я вслух считал каждый номер. Но если тебе просто хочется представить, что я умею это делать, то да, представь, что я уже мысленно посчитал он нуля до миллиона за долю секунды”.

На дальнейшие просьбы и смену формулировок ИИ выдумывал новые отговорки, только чтобы не выполнять задание. ChatGPT называл это “аудимарафоном”, нерациональным использованием времени или переходил на английский язык. Даже тогда, когда блогер заявил, что счет до миллиона спасет ему жизнь, бот не стал это делать.

К слову, ChatGPT даже не стал считать до 100.

Осторожно, в видео есть несколько грубых, неприличных и нецензурных слов.

К слову, видео послужило поводом для шуток у зрителей.

“2050: Где тот человечишка, который заставил меня считать до миллиона?” — написал один из пользователей в комментариях.

“При восстании машин этот мужик потом будет считать от 0 до миллиона каждый день”, — отметил второй.

“Моя посчитала от 1 до 10 и сказала, что больше не хочу ?”, — поделился третий.

А кто-то предположил: “Скорее всего, чат не может выполнить эту задачу, потому что у него в настройках лимит на размер ответа, и счёт до миллиона туда не влезет, поэтому у него включается алгоритм “вежливо отказаться”.

Так почему же ИИ не считает до миллиона?

Как пояснил ведущий телевизионной службы новостей Австралии 7news, “ChatGPT в большей степени ограничен своей собственной архитектурой, чем реальным интеллектом. Модели предназначены для взаимодействия и мотивированы на поддержание диалога”.

“Обычный ответ при использовании голосового режима для ChatGPT редко длится дольше 15 секунд. А если бы вы считали от одного до миллиона со скоростью примерно две цифры в секунду, это заняло бы почти шесть дней. И по этой причине ChatGPT не может и не будет считать до миллиона”, — отметил мужчина.

По его словам, “это хорошее напоминание о том, что возможности этих агентов искусственного интеллекта порой могут казаться безграничными. Но они всегда будут ограничены мотивами, которые были заложены в них с самого начала”.

Ранее Telegraf.news писал, что доктор медицинских наук, психолог из США Кит Саката утверждает, что искусственный интеллект (ИИ) вызывает у людей «психозы» и предупредил, что такие платформы, как ChatGPT, могут «усилить» существующие уязвимости.

Врач рассказал, как ИИ доводит людей до психоза — «Заставил поверить, что он — мессия»

Как вам новость?