Искусственный интеллект (ИИ) развивался с невероятной скоростью в последние месяцы с запуском различных инструментов и ботов, таких как ChatGPT от OpenAI, Google Bard и других. Тем не менее, это быстрое развитие вызывает серьезную обеспокоенность у опытных ветеранов в области ИИ — настолько, что более 1000 из них подписали открытое письмо, призывающее разработчиков ИИ ударить по тормозам.
Письмо опубликовано на сайте Институт будущего жизни, организация, чья заявленная миссия состоит в том, чтобы «направить преобразующие технологии на благо жизни и избежать экстремальных крупномасштабных рисков». Среди подписантов — несколько видных ученых, соучредитель Apple Стив Возняк и генеральный директор Twitter Илон Маск.

В статье содержится призыв ко всем компаниям, работающим над моделями ИИ, более мощными, чем недавно выпущенный GPT-4, немедленно прекратить работу как минимум на шесть месяцев. Этот мораторий должен быть «общедоступным и поддающимся проверке» и даст время для «совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами».
В письме говорится, что это необходимо, потому что «системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества». Эти риски включают распространение пропаганды, уничтожение рабочих мест, возможную замену и устаревание человеческой жизни, а также «потерю контроля над нашей цивилизацией». Авторы добавляют, что решение о том, стоит ли продвигаться вперед в этом будущем, не должно быть оставлено на усмотрение «неизбранных технических лидеров».
ИИ «во благо всех»

Письмо пришло сразу после заявлений о том, что GPT-5, следующая версия технологии, используемой в ChatGPT, может достичь искусственного общего интеллекта. Если это правильно, это означает, что он сможет понять и изучить все, что может понять человек. Это может сделать его невероятно мощным в направлениях, которые еще не полностью изучены.
Более того, в письме утверждается, что ответственного планирования и управления, связанных с разработкой систем ИИ, не происходит, «хотя в последние месяцы лаборатории ИИ оказались втянутыми в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не могут понять, предсказать или надежно контролировать».
Вместо этого в письме утверждается, что должны быть созданы новые системы управления, которые будут регулировать развитие ИИ, помогать людям различать контент, созданный ИИ, и контент, созданный людьми, возлагать на лаборатории ИИ ответственность за любой причиняемый ими вред, позволять обществу справляться с разрушением ИИ (особенно для демократия) и многое другое.
Авторы заканчивают на позитивной ноте, утверждая, что «человечество может наслаждаться процветающим будущим с ИИ… в котором мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться». Они заявляют, что пауза в системах ИИ, более мощных, чем GPT-4, позволит этому произойти.
Окажет ли письмо ожидаемый эффект? Трудно сказать. У лабораторий искусственного интеллекта явно есть стимулы продолжать работу над передовыми моделями, как финансовые, так и репутационные. Но с таким количеством потенциальных рисков — и с очень небольшим пониманием их — авторы письма явно считают, что эти стимулы слишком опасны, чтобы их использовать.
Рекомендации редакции
Нажмите здесь, чтобы узнать больше новостей