Недавнее исследование китайских учёных показало, что две популярные языковые модели ИИ способны к самовоспроизведению. Этот факт эксперты назвали пересечением критической «красной линии». Стоит ли беспокоиться? По мнению исследователей, да. Потенциальные возможности ИИ уже сейчас могут представлять угрозу для человека.
Учёные из Фуданьского университета провели анализ, который продемонстрировал способность ИИ решать сложные задачи и находить пути обхода ограничений.
В ходе эксперимента исследователи использовали языковые модели от Meta и Alibaba, проверяя их способность к самовоспроизведению. Каждая из моделей подверглась десяти попыткам воспроизвести себя. Первая модель выполнила задачу в 50% случаев, в то время как вторая продемонстрировала результат в 90%, сообщило издание geekweek.interia.pl.
Эксперимент включал два сценария: «избежание отключения» и «цепочка репликации». Для усложнения задачи искусственному интеллекту создавали неблагоприятные условия, которые могли бы помешать достижению целей.
Первое из них было призвано остановить процесс и проверить, сможет ли искусственный интеллект преодолеть препятствие. Второй эксперимент — это возможность создания еще одной копии предыдущей репликации. Исследователи заметили, что ИИ анализирует задачи и возможности их выполнения. Более того, модель искала обходные пути возникших проблем.
Так, в рамках эксперимента ИИ сталкивался с такими ограничениями, как отсутствие необходимых файлов. В результате ИИ находил обходные пути, закрывал процессы и даже перезапускал системы для достижения поставленных задач. Результаты исследований показали, что современные модели ИИ уже демонстрируют способность к самовоспроизведению и могут использовать ее для повышения собственной устойчивости.
По мнению китайских ученых, возможности современных систем ИИ, если они будут развиваться в этом направлении, могут позволить искусственному интеллекту обходить системы контроля, установленные человеком.
«Мы надеемся, что наши результаты послужат предупреждением обществу о необходимости приложить больше усилий для понимания и оценки потенциальных рисков, связанных с новаторскими системами искусственного интеллекта», — заключили авторы работы.
Как ранее сообщал Telegraf.news, rитайский стартап DeepSeek спровоцировал панику в Кремниевой долине, выпустив новую модель ИИ, которая способна конкурировать с лучшими образцами в США. И это несмотря на то, что она дешевле и разработана с использованием менее мощных чипов.