Новейший тест Meta справедливость искусственного интеллекта измеряет еще более детализированные маркеры предвзятости | Fanoftech


Как белый человек в Америке без заметного регионального акцента, я могу просто предположить, что современные потребительские технологии — виртуальные помощники, такие как , и камера моего телефона — будут работать без проблем из коробки. Я предполагаю это, потому что, ну, они делают. Это именно потому, что умники, которые проектируют и программируют эти устройства, в подавляющем большинстве выглядят и звучат так же, как я, хотя и немного белее. Люди с и дополнительно не пользоваться той же привилегией.

Чат-боты и визуальные ИИ завтрашнего дня будут только усугублять эту предвзятость, если сегодня не будут предприняты шаги для обеспечения эталонного стандарта справедливости и равноправного поведения этих систем. Чтобы решить эту проблему, исследователи Meta AI разработали и выпустили , предназначенный для того, чтобы «помочь исследователям оценить точность своих компьютерных моделей зрения и звука в зависимости от возраста, пола, видимых оттенков кожи и условий окружающего освещения». В четверг компания представила Casual Conversations v2, которая обещает еще более детализированные категории классификации, чем ее предшественник.

Первоначальный набор данных CC включал 45 000 видео от более чем 3 000 платных субъектов в зависимости от возраста, пола, видимого оттенка кожи и условий освещения. Эти видео предназначены для использования другими исследователями ИИ, особенно теми, кто работает с генеративными ИИ, такими как ChatGPT, или визуальными ИИ, такими как те, которые используются в фильтрах социальных сетей и функциях распознавания лиц, чтобы помочь им гарантировать, что их творения ведут себя одинаково, независимо от того, как выглядит пользователь. Аня Тейлор-Джой или Люпита Нионго, независимо от того, звучат ли они как Колин Ферт или Колин Куинн.


С момента первого дебюта Casual Conversations два года назад Meta работала «в консультации с внутренними экспертами в таких областях, как гражданские права», согласно объявлению во вторник, над расширением и улучшением набора данных. Профессор Паскаль Фунг, директор Центра исследований ИИ, а также другие исследователи из Гонконгского университета науки и технологий приняли участие в обзоре литературы государственных и отраслевых данных для установления новых категорий аннотаций.

Версия 2 теперь включает в себя 11 категорий (семь самоотчетов и четыре с комментариями исследователей) и 26 467 видеомонологов, записанных почти 5600 субъектами из семи стран — Бразилии, Индии, Индонезии, Мексики, Вьетнама, Филиппин и США. Хотя в новом наборе данных не так много отдельных видео, они гораздо более аннотированы. Как указывает Meta, в первой итерации было всего несколько категорий: «возраст, три подкатегории пола (женский, мужской и другой), видимый тон кожи и окружающее освещение», согласно сообщению в блоге в четверг.

«Чтобы повысить недискриминацию, справедливость и безопасность в ИИ, важно иметь инклюзивные данные и разнообразие в категориях данных, чтобы исследователи могли лучше оценить, насколько хорошо конкретная модель или продукт на основе ИИ работает для разных демографических групп», — Рой Остин, Вице-президент и заместитель главного юрисконсульта по гражданским правам в Meta, говорится в сообщении. «Этот набор данных играет важную роль в обеспечении того, чтобы технология, которую мы создаем, с самого начала учитывала справедливость для всех».

Как и в большинстве своих общедоступных исследований ИИ на сегодняшний день, Meta выпускает Casual Conversations v2 как набор данных с открытым исходным кодом, который может использовать и расширять каждый — возможно, включая такие маркеры, как «инвалидность, акцент, диалект, местоположение и настройки записи, », как намекнула компания в четверг.


Нажмите здесь, чтобы узнать больше новостей


Leave a Comment

Your email address will not be published.