Лаборатории искусственного интеллекта вышли из-под контроля — ученые

Ученые считают, что системы искусственного интеллекта следует разрабатывать только тогда, когда есть уверенность, что их эффекты будут положительными, а риски управляемыми.

Системы искусственного интеллекта могут представлять серьезную опасность для общества. Об этом говорится на сайте некоммерческой организации Future of Life Institute.

Поэтому генеральный директор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк и еще 1100 профессоров, инженеров и исследователей призывают приостановить эксперименты.

Авторы считают, что обучение и испытание более мощных систем искусственного интеллекта, чем GPT-4, должны быть прекращены по меньшей мере на полгода, пока не появятся общие протоколы безопасности. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами.

«Нам следует спросить себя: должны ли мы позволить машинам наполнить наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать всю работу, включая приносящую удовольствие? Должны ли мы развивать бесчеловечные умы, которые в итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — говорится в письме.

Ранее сообщалось, что корпорация Google представила инструмент на базе ИИ для создания текстов в Gmail и Workspace. 

Как вам новость?
Головоломки