Meta планирует увеличить маркировку изображений, созданных искусственным интеллектом, на своих платформах

Meta планирует активизировать маркировку изображений, созданных искусственным интеллектом, в Facebook, Instagram и Threads, чтобы дать понять, что визуальные эффекты являются искусственными. Это часть более широкой кампании по борьбе с дезинформацией и дезинформацией, что особенно важно, поскольку мы спорим о последствиях генеративного искусственного интеллекта (ГАИ) в важный год выборов в США и других странах.

  Мы в Telegram

По словам президента Meta по глобальным вопросам Ника Клегга, компания работает с партнерами со всей отрасли над разработкой стандартов, которые включают индикаторы того, что изображение, видео или аудиоклип были созданы с использованием искусственного интеллекта. «Возможность обнаруживать эти сигналы позволит нам маркировать сгенерированные искусственным интеллектом изображения, которые пользователи публикуют в Facebook, Instagram и Threads», — написал Клегг в своем сообщении. Мета-публикация в новостном отделе. «Сейчас мы создаем эту возможность, и в ближайшие месяцы начнем применять метки на всех языках, поддерживаемых каждым приложением». Клегг добавил, что по мере расширения этих возможностей в следующем году Meta надеется узнать больше о том, «как люди создают и делятся контентом ИИ, какой вид прозрачности люди считают наиболее ценным и как развиваются эти технологии». По его словам, это поможет информировать как о лучших отраслевых практиках, так и о собственной политике Meta.

Meta заявляет, что инструменты, над которыми она работает, смогут обнаруживать невидимые сигналы, а именно информацию, сгенерированную ИИ, которая соответствует C2PA и ИПТК технические стандарты — в масштабе. Таким образом, компания рассчитывает иметь возможность определять и маркировать изображения из Google, OpenAI, Microsoft, Adobe, Midjourney и Shutterstock, которые включают метаданные GAI в изображения, которые создают их продукты.

Что касается видео и аудио GAI, Клегг отмечает, что компании в этой сфере еще не начали включать невидимые сигналы в те, которые имеют тот же масштаб, что и изображения. Таким образом, Meta пока не может обнаруживать видео и аудио, созданные сторонними инструментами искусственного интеллекта. Между тем, Meta ожидает, что пользователи сами будут маркировать такой контент.


«Пока индустрия работает над этой возможностью, мы добавляем функцию, позволяющую людям сообщать, когда они делятся видео или аудио, сгенерированными искусственным интеллектом, чтобы мы могли добавить к ним метку», — написал Клегг. «Мы будем требовать от людей использовать этот инструмент раскрытия информации и маркировки, когда они публикуют органический контент с фотореалистичным видео или реалистично звучащим аудио, созданным или измененным в цифровом виде, и мы можем применить штрафы, если они этого не сделают. Если мы определим, что это Созданные или измененные в цифровом формате изображения, видео или аудиоконтент создают особенно высокий риск материального обмана общественности по важному вопросу, мы можем добавить более заметную метку, если это необходимо, чтобы люди имели больше информации и контекста».

Тем не менее, возлагать на пользователей ответственность за добавление информации и ярлыков к видео и аудио, генерируемым ИИ, кажется бесполезным. Многие из этих людей будут пытаться намеренно обмануть других. Вдобавок ко всему, другие, скорее всего, просто не будут беспокоиться или не будут знать о политике ГАИ.

Кроме того, Meta стремится усложнить людям возможность изменять или удалять невидимые маркеры из контента GAI. Исследовательская лаборатория компании FAIR AI развитая технология это «интегрирует механизм нанесения водяных знаков непосредственно в процесс генерации изображений для некоторых типов генераторов изображений, что может быть полезно для моделей с открытым исходным кодом, поэтому водяные знаки невозможно отключить», — написал Клегг. Meta также работает над способами автоматического обнаружения сгенерированного ИИ материала, не имеющего невидимых маркеров.

Мета планирует продолжать сотрудничество с отраслевыми партнерами и «оставаться в диалоге с правительствами и гражданским обществом», поскольку ГАИ становится все более распространенным. Он считает, что на данный момент это правильный подход к обработке контента, который публикуется в Facebook, Instagram и Threads, хотя при необходимости он будет корректировать ситуацию.


Одна из ключевых проблем подхода Meta (по крайней мере, пока он работает над способами автоматического обнаружения GAI-контента, в котором не используются стандартные невидимые маркеры) заключается в том, что он требует поддержки со стороны партнеров. Например, C2PA имеет метод аутентификации в стиле реестра. Чтобы это работало, как инструменты, используемые для создания изображений, так и платформы, на которых они размещаются, должны поддерживать C2PA.

Meta поделилась обновленной информацией о своем подходе к маркировке контента, созданного искусственным интеллектом, всего через несколько дней после того, как генеральный директор Марк Цукерберг пролил больше света на планы своей компании по созданию общего искусственного интеллекта. Он отмеченный эти обучающие данные — одно из главных преимуществ Meta. По оценкам компании, фотографии и видео, опубликованные в Facebook и Instagram, составляют набор данных, превышающий Common Crawl. Это набор данных из примерно 250 миллиардов веб-страниц, который использовался для обучения других моделей ИИ. Meta сможет использовать и то, и другое, и ей не придется делиться данными, которые она собрала через Facebook и Instagram, с кем-либо еще.


Обязательство более широко маркировать контент, созданный искусственным интеллектом, также было сделано всего через день после того, как Наблюдательный совет Meta определил, что видео, которое было ошибочно отредактировано, чтобы предположить, что президент Джо Байден неоднократно касался груди своей внучки, может остаться на платформах компании. На самом деле Байден просто наклеил наклейку «Я голосовала» на свою рубашку после того, как она впервые проголосовала лично. Совет решил, что видео разрешено правилами Meta о манипулировании медиа, но призвал компанию обновить эти правила сообщества.

Нажмите здесь, чтобы узнать больше новостей


Leave a Comment

Your email address will not be published. Required fields are marked *