Как внимательный подход к ИИ сокращает количество предвзятых наборов данных

Предвзятые наборы данных и этичный ИИ

Решениям на базе ИИ для эффективности требуются наборы данных. И создание этих наборов данных чревато проблемой неявной систематической ошибки. Все люди страдают от предубеждений (как сознательных, так и бессознательных). Предубеждения могут принимать любые формы: географические, лингвистические, социально-экономические, сексистские и расистские. И эти систематические предубеждения закрепляются в данных, что может привести к созданию продуктов искусственного интеллекта, которые увековечивают и усиливают предвзятость. Организации нуждаются в осознанном подходе к предотвращению появления предвзятости в наборах данных.

Примеры, иллюстрирующие проблему смещения

Одним из ярких примеров предвзятости этого набора данных, которое в то время было много негативной прессы, было решение для чтения резюме, которое отдавало предпочтение кандидатам-мужчинам, а не женщинам. Это связано с тем, что наборы данных инструмента приема на работу были разработаны с использованием резюме за последнее десятилетие, когда большинство соискателей были мужчинами. Данные были предвзятыми, и результаты отражали эту предвзятость. 

Еще один широко известный пример: на ежегодной конференции разработчиков Google I / O Google поделился предварительным просмотром вспомогательного дерматологического инструмента на базе искусственного интеллекта, который помогает людям понять, что происходит с проблемами, связанными с их кожей, волосами и ногтями. Ассистент дерматолога подчеркивает, как ИИ развивается, чтобы помочь в здравоохранении, но также подчеркивает возможность предвзятого отношения к ИИ в результате критики о том, что этот инструмент не подходит для цветных людей.

Когда Google анонсировал инструмент, компания отметила:

Чтобы убедиться, что мы строим для всех, наша модель учитывает такие факторы, как возраст, пол, раса и тип кожи - от бледной кожи, которая не загорает, до коричневой кожи, которая редко горит.

Google, Использование ИИ для поиска ответов на распространенные кожные заболевания

Но в статье в Vice говорится, что Google не удалось использовать исчерпывающий набор данных:

Для выполнения задачи исследователи использовали обучающий набор данных из 64,837 12,399 изображений 3.5 пациентов, находящихся в двух штатах. Но из тысяч изображенных кожных заболеваний только 90 процента приходились на пациентов с типом кожи V и VI по Фитцпатрику - с коричневой кожей и темно-коричневой или черной кожей соответственно. Согласно исследованию, XNUMX процентов базы данных составили люди со светлой кожей, более темной белой кожей или светло-коричневой кожей. По словам дерматологов, в результате необъективной выборки приложение может переоценить или недооценить людей, которые не являются белыми.

Vice, новое приложение Google для дерматологии не предназначено для людей с более темной кожей

Google ответил, что доработает инструмент перед его официальным выпуском:

Наш вспомогательный дерматологический инструмент на базе искусственного интеллекта - это результат более чем трехлетних исследований. С тех пор, как наша работа была представлена ​​в журнале Nature Medicine, мы продолжаем развивать и совершенствовать нашу технологию, добавляя дополнительные наборы данных, которые включают данные, предоставленные тысячами людей, и миллионы более тщательно отобранных изображений проблем с кожей.

Google, Использование ИИ для поиска ответов на распространенные кожные заболевания

Как бы мы ни надеялись, что программы искусственного интеллекта и машинного обучения могут исправить эти предубеждения, реальность остается неизменной: они работают ровно настолько, насколько это возможно. умный поскольку их наборы данных чистые. В обновлении старой поговорки о программировании мусор на входе / мусор на выходе, ИИ-решения настолько сильны, насколько качественны их наборы данных с самого начала. Без исправления со стороны программистов у этих наборов данных не будет опыта, который можно было бы исправить самостоятельно, поскольку у них просто нет другой системы координат.

Ответственное построение наборов данных лежит в основе всех этический искусственный интеллект. И в основе решения лежат люди. 

Внимательный ИИ - это этичный ИИ

Предвзятость не возникает в вакууме. Неэтичные или необъективные наборы данных возникают из-за неправильного подхода на этапе разработки. Способ борьбы с предвзятыми ошибками - это принять ответственный, ориентированный на человека подход, который многие в отрасли называют осознанным ИИ. Внимательный ИИ имеет три важных компонента:

1. Внимательный ИИ ориентирован на человека

С самого начала проекта ИИ на этапах планирования потребности людей должны быть в центре каждого решения. А это значит, что все люди, а не только часть. Вот почему разработчикам необходимо полагаться на разноплановую команду людей со всего мира, чтобы научить приложения ИИ быть инклюзивными и беспристрастными.

Краудсорсинг наборов данных от глобальной разнородной команды обеспечивает раннее выявление и фильтрацию предвзятости. Представители разных национальностей, возрастных групп, полов, уровней образования, социально-экономического положения и местоположения могут более легко определить наборы данных, которые отдают предпочтение одному набору ценностей по сравнению с другим, тем самым устраняя непреднамеренную предвзятость.

Взгляните на голосовые приложения. Применяя осознанный подход ИИ и используя возможности глобального кадрового резерва, разработчики могут учитывать лингвистические элементы, такие как различные диалекты и акценты в наборах данных.

Создание концепции дизайна, ориентированной на человека, с самого начала имеет решающее значение. Это имеет большое значение для обеспечения того, чтобы сгенерированные, обработанные и помеченные данные соответствовали ожиданиям конечных пользователей. Но также важно держать людей в курсе на протяжении всего жизненного цикла разработки продукта. 

Люди, вовлеченные в цикл, также могут помочь машинам улучшить работу ИИ для каждой конкретной аудитории. В Pactera EDGE наши команды по разработке данных ИИ, расположенные по всему миру, понимают, как разные культуры и контексты могут повлиять на сбор и обработку надежных данных обучения ИИ. У них есть все необходимые инструменты, чтобы отмечать проблемы, отслеживать их и исправлять, прежде чем решение на основе ИИ будет запущено.

Искусственный интеллект «Человек в контуре» - это проект «сети безопасности», который объединяет сильные стороны людей - и их разноплановый опыт - с высокой вычислительной мощностью машин. Это сотрудничество между людьми и искусственным интеллектом необходимо наладить с самого начала, чтобы предвзятые данные не составляли основу проекта. 

2. Внимательный ИИ несет ответственность

Ответственность - это обеспечение того, чтобы системы ИИ были свободны от предубеждений и основывались на этических принципах. Речь идет о том, чтобы помнить о том, как, почему и где создаются данные, как они синтезируются системами ИИ и как они используются при принятии решений, решений, которые могут иметь этические последствия. Один из способов сделать это - работать с недостаточно представленными сообществами, чтобы они были более инклюзивными и менее предвзятыми. В области аннотаций данных новое исследование подчеркивает, как многозадачная модель с несколькими аннотаторами, которая обрабатывает метки каждого аннотатора как отдельную подзадачу, может помочь смягчить потенциальные проблемы, присущие типичным методам наземной проверки достоверности, когда разногласия аннотаторов могут быть вызваны недостаточным представлением и могут быть проигнорированы в совокупности аннотаций к единственной основной истине. 

3. Надежный

Надежность исходит от прозрачности бизнеса и объяснения того, как обучается модель ИИ, как она работает и почему они рекомендуют результаты. Бизнесу необходим опыт в области локализации ИИ, чтобы клиенты могли сделать свои приложения ИИ более инклюзивными и персонализированными, с учетом важных нюансов местного языка и пользовательского опыта, которые могут повысить или подорвать доверие к решению ИИ в разных странах. . Например, бизнесу следует разрабатывать свои приложения для персонализированных и локализованных контекстов, включая языки, диалекты и акценты в голосовых приложениях. Таким образом, приложение обеспечивает одинаковый уровень сложности голосового управления для всех языков, от английского до недостаточно представленных языков.

Справедливость и разнообразие

В конечном счете, внимательный ИИ гарантирует, что решения основаны на справедливых и разнообразных наборах данных, где последствия и влияние конкретных результатов отслеживаются и оцениваются до того, как решение выйдет на рынок. Внимательно относясь к людям и вовлекая людей в каждую часть разработки решения, мы помогаем модели ИИ оставаться чистыми, минимально предвзятыми и максимально этичными.

Как вы думаете?

Этот сайт использует Akismet для уменьшения количества спама. Узнайте, как обрабатываются ваши данные комментариев.