Илон Маск предупреждает: приостановите разработку ИИ или рискуйте катастрофой | Цифровые тренды


Искусственный интеллект (ИИ) развивался с невероятной скоростью в последние месяцы с запуском различных инструментов и ботов, таких как ChatGPT от OpenAI, Google Bard и других. Тем не менее, это быстрое развитие вызывает серьезную обеспокоенность у опытных ветеранов в области ИИ — настолько, что более 1000 из них подписали открытое письмо, призывающее разработчиков ИИ ударить по тормозам.

Письмо опубликовано на сайте Институт будущего жизни, организация, чья заявленная миссия состоит в том, чтобы «направить преобразующие технологии на благо жизни и избежать экстремальных крупномасштабных рисков». Среди подписантов — несколько видных ученых, соучредитель Apple Стив Возняк и генеральный директор Twitter Илон Маск.

Стилизованное изображение генерального директора Tesla и Spacex Илона Маска
Графика Getty Images/Digital Trends

В статье содержится призыв ко всем компаниям, работающим над моделями ИИ, более мощными, чем недавно выпущенный GPT-4, немедленно прекратить работу как минимум на шесть месяцев. Этот мораторий должен быть «общедоступным и поддающимся проверке» и даст время для «совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами».

В письме говорится, что это необходимо, потому что «системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества». Эти риски включают распространение пропаганды, уничтожение рабочих мест, возможную замену и устаревание человеческой жизни, а также «потерю контроля над нашей цивилизацией». Авторы добавляют, что решение о том, стоит ли продвигаться вперед в этом будущем, не должно быть оставлено на усмотрение «неизбранных технических лидеров».


ИИ «во благо всех»

ChatGPT против Google на смартфонах.

Письмо пришло сразу после заявлений о том, что GPT-5, следующая версия технологии, используемой в ChatGPT, может достичь искусственного общего интеллекта. Если это правильно, это означает, что он сможет понять и изучить все, что может понять человек. Это может сделать его невероятно мощным в направлениях, которые еще не полностью изучены.

Более того, в письме утверждается, что ответственного планирования и управления, связанных с разработкой систем ИИ, не происходит, «хотя в последние месяцы лаборатории ИИ оказались втянутыми в неконтролируемую гонку по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не могут понять, предсказать или надежно контролировать».

Вместо этого в письме утверждается, что должны быть созданы новые системы управления, которые будут регулировать развитие ИИ, помогать людям различать контент, созданный ИИ, и контент, созданный людьми, возлагать на лаборатории ИИ ответственность за любой причиняемый ими вред, позволять обществу справляться с разрушением ИИ (особенно для демократия) и многое другое.

Авторы заканчивают на позитивной ноте, утверждая, что «человечество может наслаждаться процветающим будущим с ИИ… в котором мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться». Они заявляют, что пауза в системах ИИ, более мощных, чем GPT-4, позволит этому произойти.


Окажет ли письмо ожидаемый эффект? Трудно сказать. У лабораторий искусственного интеллекта явно есть стимулы продолжать работу над передовыми моделями, как финансовые, так и репутационные. Но с таким количеством потенциальных рисков — и с очень небольшим пониманием их — авторы письма явно считают, что эти стимулы слишком опасны, чтобы их использовать.

Рекомендации редакции







Нажмите здесь, чтобы узнать больше новостей


Leave a Comment

Your email address will not be published.