США и Великобритания объединяются, чтобы проверить безопасность моделей искусственного интеллекта

OpenAI, Google, Anthropic и другие компании, разрабатывающие генеративный ИИ, продолжают совершенствовать свои технологии и выпускают все лучшие и лучшие модели больших языков. Чтобы создать общий подход к независимой оценке безопасности этих моделей по мере их появления, правительства Великобритании и США подписано Меморандум о взаимопонимании. Британский институт безопасности ИИ и его аналог в США, о котором объявил вице-президент Камала Харрис, но еще не начал свою работу, совместно разработают наборы тестов для оценки рисков и обеспечения безопасности «самых передовых моделей ИИ». “

  Мы в Telegram

Они планируют делиться техническими знаниями, информацией и даже персоналом в рамках партнерства, и одной из их первоначальных целей, похоже, является проведение совместного тестирования общедоступной модели. Об этом сообщила министр науки Великобритании Мишель Донелан, подписавшая соглашение. Файнэншл Таймс что им «действительно нужно действовать быстро», потому что они ожидают, что в следующем году выйдет новое поколение моделей искусственного интеллекта. Они считают, что эти модели могут «полностью изменить правила игры», но до сих пор не знают, на что они способны.

В соответствии с Времена, это партнерство является первым в мире двусторонним соглашением по безопасности ИИ, хотя и США, и Великобритания намерены объединиться с другими странами в будущем. «ИИ — определяющая технология нашего поколения. Это партнерство ускорит работу обоих наших институтов по всему спектру рисков, будь то для нашей национальной безопасности или для нашего общества в целом», — заявила министр торговли США Джина Раймондо. «Наше партнерство ясно дает понять, что мы не убегаем от этих проблем — мы боремся с ними. Благодаря нашему сотрудничеству наши институты смогут лучше понять системы искусственного интеллекта, проводить более надежные оценки и выпускать более строгие рекомендации. “

Хотя это конкретное партнерство сосредоточено на тестировании и оценке, правительства по всему миру также разрабатывают правила, позволяющие держать инструменты ИИ под контролем. Еще в марте Белый дом подписал указ, направленный на то, чтобы федеральные агентства использовали только те инструменты искусственного интеллекта, которые «не ставят под угрозу права и безопасность американского народа». За пару недель до этого Европейский парламент одобрил масштабный закон, регулирующий искусственный интеллект. Он запретит «ИИ, который манипулирует человеческим поведением или использует уязвимости людей», «системы биометрической категоризации, основанные на чувствительных характеристиках», а также «нецелевое извлечение» лиц из записей камер видеонаблюдения и Интернета для создания баз данных распознавания лиц. Кроме того, в соответствии с его правилами дипфейки и другие изображения, видео и аудио, созданные искусственным интеллектом, должны быть четко обозначены как таковые.


Нажмите здесь, чтобы узнать больше новостей


Leave a Comment

Your email address will not be published. Required fields are marked *