«Должны ли мы развивать нечеловеческие умы?» — Маск, Возняк и тысяча экспертов призвали приостановить разработку ИИ

«Системы искусственного интеллекта… могут представлять серьезные риски для

Илон Маск и группа экспертов по искусственному интеллекту, а также значимые эксперты технологической отрасли призвали к паузе на полгода в разработке ИИ, более мощных, чем недавно запущенная GPT-4. Об этом говорится в открытом письме экспертов.

«Системы искусственного интеллекта… могут представлять серьезные риски для общества и человечества, как показали обширные исследования и признаны ведущими лабораториями искусственного интеллекта», — говорится в письме, которое такж подписали сооснователь Apple Стив Возняк и сооснователь Pinterest Эван Шарп.

«Продвинутый искусственный интеллект может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соответствующей тщательностью и ресурсами. К сожалению, такого уровня планирования и управления нет, хотя в последние месяцы лаборатории искусственного интеллекта оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — завивли авторы письма.

«Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с человеком в решении общих задач, и мы должны спросить себя: должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые приносят удовлетворение? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могли бы превзойти нас числом, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным техническим лидерам. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми», — говорится в обращении.

Авторы призвали все лаборатории искусственного интеллекта и независимых экспертов использовать 6-месячную паузу для совместной разработки и внедрения набора общих протоколов безопасности, которые пройдут строгий аудит независимых внешних экспертов.

«Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне всяких разумных сомнений. Это не означает паузу в развитии искусственного интеллекта в целом, а просто отступление от опасной гонки к все более масштабным непредсказуемым моделям «черного ящика» с появляющимися возможностями», — заявили подписанты письма.

Как вам новость?
Головоломки