Хотите узнать больше о алгоритмической предвзятости в ИИ? Присоединяйтесь к INVIAI и познакомьтесь с темой ИИ и алгоритмической предвзятости в этой статье!
Искусственный интеллект (ИИ) всё глубже проникает в нашу повседневную жизнь — от решений о найме до здравоохранения и правоохранительных органов — но его использование вызывает опасения по поводу алгоритмической предвзятости. Алгоритмическая предвзятость — это систематические и несправедливые предубеждения в результатах работы ИИ, часто отражающие общественные стереотипы и неравенства.
По сути, алгоритм ИИ может непреднамеренно воспроизводить человеческие предубеждения, присутствующие в обучающих данных или в конструкции системы, что приводит к дискриминационным результатам.
Эта проблема стала одной из самых острых тем в этике технологий, привлекая внимание исследователей, законодателей и лидеров отрасли по всему миру. Быстрое внедрение ИИ требует немедленного решения вопроса предвзятости: без этических ограничений ИИ рискует воспроизводить реальные предубеждения и дискриминацию, усугубляя социальные разногласия и даже угрожая фундаментальным правам человека.
Ниже мы рассмотрим причины алгоритмической предвзятости, реальные примеры её проявления и усилия по созданию более справедливого ИИ.
Понимание алгоритмической предвзятости и её причин
Алгоритмическая предвзятость обычно возникает не потому, что ИИ «хочет» дискриминировать, а из-за человеческих факторов. Системы ИИ обучаются на данных и следуют правилам, созданным людьми — а люди имеют предубеждения (часто бессознательные).
Если обучающие данные искажены или отражают исторические предрассудки, ИИ, скорее всего, усвоит эти шаблоны.
Например, ИИ для отбора резюме, обученный на данных о найме в технологической отрасли за последние десять лет (где большинство нанятых были мужчинами), может сделать вывод, что предпочтительнее мужчины, тем самым ставя женщин в невыгодное положение. Другими распространёнными причинами являются неполные или нерепрезентативные наборы данных, предвзятая маркировка данных или алгоритмы, оптимизированные на общую точность, но не на справедливость для меньшинств.
Короче говоря, алгоритмы ИИ наследуют предубеждения своих создателей и данных, если не предпринимать сознательных шагов для их выявления и исправления.
Важно отметить, что алгоритмическая предвзятость обычно непреднамеренна. Организации часто внедряют ИИ, чтобы сделать решения более объективными, но если они «кормят» систему предвзятой информацией или не учитывают справедливость при проектировании, результат всё равно может быть несправедливым. Предвзятость ИИ может несправедливо распределять возможности и давать неточные результаты, негативно влияя на благополучие людей и подрывая доверие к ИИ.
Понимание причин предвзятости — первый шаг к её решению — и этот шаг сейчас серьёзно принимают в академической среде, индустрии и правительственных структурах по всему миру.
Реальные примеры предвзятости ИИ
Предвзятость в ИИ — это не гипотетическая проблема; многочисленные реальные случаи показали, как алгоритмическая предвзятость может приводить к дискриминации. Известные примеры предвзятости ИИ в разных сферах включают:
-
Уголовное правосудие: В США популярный алгоритм для прогнозирования рецидивизма (вероятности повторного преступления) оказался предвзятым против чернокожих обвиняемых. Он часто ошибочно относил чернокожих к группе высокого риска, а белых — к низкому, усугубляя расовые диспропорции в вынесении приговоров.
Этот случай демонстрирует, как ИИ может усиливать исторические предубеждения в полиции и судах. -
Найм и подбор персонала: Amazon известен тем, что отказался от ИИ-инструмента для рекрутинга после обнаружения дискриминации женщин. Модель машинного обучения сама «выучила», что предпочтительнее мужчины, поскольку обучалась на резюме, в основном от мужчин.
В результате резюме с упоминанием слова «женский» (например, «капитан женского шахматного клуба») или из женских колледжей снижались в рейтинге системы. Этот предвзятый алгоритм несправедливо отсеивал квалифицированных женщин на технические должности. -
Здравоохранение: Алгоритм, используемый больницами США для выявления пациентов, нуждающихся в дополнительном уходе, недооценивал потребности чернокожих пациентов по сравнению с белыми. Система прогнозировала приоритеты ухода на основе расходов на здравоохранение: поскольку исторически на чернокожих пациентов с одинаковыми заболеваниями тратили меньше, алгоритм ошибочно считал их «здоровее» и присваивал более низкие оценки риска.
На практике это означало, что многие чернокожие пациенты, нуждающиеся в большем уходе, оставались без внимания — исследование показало, что расходы на медицинское обслуживание чернокожих пациентов были примерно на 1800 долларов в год меньше, чем у белых с аналогичными заболеваниями, что приводило к недостаточному лечению. -
Распознавание лиц: Технологии распознавания лиц демонстрируют значительную предвзятость в точности по демографическим признакам. Обширное исследование 2019 года Национального института стандартов и технологий США (NIST) показало, что большинство алгоритмов распознавания лиц имеют гораздо более высокие показатели ошибок для цветных людей и женщин по сравнению с белыми мужчинами.
В сценариях один-к-одному (проверка, совпадают ли две фотографии одного человека) ложные срабатывания для азиатских и афроамериканских лиц были в 10–100 раз вероятнее, чем для лиц европеоидной расы в некоторых алгоритмах. В сценариях один-ко-многим (поиск человека в базе данных, используемый правоохранительными органами) наибольшие показатели ошибочной идентификации были у чернокожих женщин — опасная предвзятость, которая уже приводила к ошибочным арестам невиновных.
Эти различия показывают, как предвзятый ИИ может непропорционально вредить маргинализированным группам. -
Генеративный ИИ и онлайн-контент: Даже новейшие системы ИИ не застрахованы. Исследование ЮНЕСКО 2024 года выявило, что крупные языковые модели (ИИ, стоящий за чат-ботами и генераторами контента) часто воспроизводят регрессивные гендерные и расовые стереотипы.
Например, женщин описывали в домашних ролях в четыре раза чаще, чем мужчин в одной популярной модели, при этом женские имена часто связывались со словами «дом» и «дети», а мужские — с «руководителем», «зарплатой» и «карьерой». Аналогично, исследование выявило гомофобную предвзятость и культурные стереотипы в выводах этих моделей.
Поскольку миллионы людей ежедневно используют генеративный ИИ, даже тонкие предубеждения в контенте могут усиливать неравенство в реальном мире, масштабно закрепляя стереотипы.
Эти примеры подчёркивают, что алгоритмическая предвзятость — это не отдалённая или редкая проблема — она происходит во многих сферах уже сегодня. От возможностей трудоустройства до правосудия, здравоохранения и онлайн-информации — предвзятые системы ИИ могут воспроизводить и даже усиливать существующую дискриминацию.
Вред чаще всего испытывают исторически обделённые группы, что вызывает серьёзные этические и правозащитные вопросы. Как предупреждает ЮНЕСКО, риски ИИ «накладываются на существующие неравенства, приводя к дополнительному ущербу для уже маргинализированных групп».
Почему предвзятость ИИ важна?
Ставки в борьбе с предвзятостью ИИ высоки. Если её не контролировать, предвзятые алгоритмы могут закрепить системную дискриминацию под маской технологической нейтральности. Решения, принимаемые (или направляемые) ИИ — кто будет нанят, кто получит кредит или условно-досрочное освобождение, как полиция выбирает объекты наблюдения — имеют реальные последствия для жизни людей.
Если эти решения несправедливо смещены против определённых полов, рас или сообществ, социальное неравенство усиливается. Это может привести к отказу в возможностях, экономическим разрывам или даже угрозам личной свободе и безопасности затронутых групп.
В более широком контексте алгоритмическая предвзятость подрывает права человека и социальную справедливость, противореча принципам равенства и недискриминации, которые поддерживают демократические общества.
Предвзятость в ИИ также подрывает общественное доверие к технологиям. Люди менее склонны доверять или использовать системы ИИ, которые воспринимаются как несправедливые или непрозрачные.
Для бизнеса и государственных структур этот дефицит доверия — серьёзная проблема — успешные инновации требуют общественного доверия. Как отметил один эксперт, справедливые и непредвзятые решения ИИ не только этически оправданы, они выгодны для бизнеса и общества, поскольку устойчивые инновации зависят от доверия.
Напротив, широко освещаемые неудачи ИИ из-за предвзятости (как в приведённых выше случаях) могут нанести ущерб репутации и легитимности организации.
Кроме того, алгоритмическая предвзятость может снизить потенциальные выгоды ИИ. ИИ обещает повысить эффективность и качество решений, но если его результаты дискриминационны или неточны для отдельных групп населения, он не сможет реализовать весь свой положительный потенциал.
Например, медицинский ИИ-инструмент, который хорошо работает для одной демографической группы, но плохо — для других, не является по-настоящему эффективным или приемлемым. Как отмечает ОЭСР, предвзятость в ИИ несправедливо ограничивает возможности и может стоить бизнесу репутации и доверия пользователей.
Короче говоря, борьба с предвзятостью — это не только моральный императив, но и ключ к тому, чтобы ИИ приносил пользу всем людям справедливо.
Стратегии снижения предвзятости ИИ
Поскольку алгоритмическая предвзятость получила широкое признание, появились различные стратегии и лучшие практики для её снижения. Обеспечение справедливости и инклюзивности ИИ требует действий на нескольких этапах разработки и внедрения:
-
Улучшение работы с данными: Поскольку предвзятые данные — корень проблемы, ключевым является повышение качества данных. Это означает использование разнообразных, репрезентативных обучающих наборов данных, включающих меньшинства, и тщательную проверку на искажения или пробелы.
Также важно проводить аудит данных на предмет исторических предубеждений (например, различия в результатах по расе/полу) и корректировать или балансировать их до обучения модели. В случаях, когда определённые группы недостаточно представлены, помогают методы увеличения данных или синтетические данные.
Исследования NIST показали, что более разнообразные обучающие данные могут обеспечить более справедливые результаты в распознавании лиц, например. Постоянный мониторинг результатов ИИ также помогает выявлять проблемы с предвзятостью на ранних стадиях — что измеряется, то управляется. Если организация собирает объективные данные о том, как решения алгоритма различаются по демографическим признакам, она может выявлять несправедливые паттерны и устранять их. -
Справедливое проектирование алгоритмов: Разработчики должны сознательно внедрять ограничения справедливости и методы снижения предвзятости в обучение моделей. Это может включать использование алгоритмов, которые можно настраивать по параметру справедливости (а не только точности), или применение техник для выравнивания показателей ошибок между группами.
Сейчас существуют инструменты и фреймворки (многие с открытым исходным кодом) для тестирования моделей на предвзятость и их корректировки — например, переназначение весов данных, изменение порогов принятия решений или продуманное исключение чувствительных признаков.
Важно, что существует несколько математических определений справедливости (например, равенство предсказаний, равенство ложноположительных результатов и др.), которые иногда конфликтуют. Выбор подхода к справедливости требует этического суждения и учёта контекста, а не просто корректировки данных.
Поэтому командам ИИ рекомендуется работать с экспертами по предметной области и затронутыми сообществами при определении критериев справедливости для конкретного применения. -
Человеческий контроль и ответственность: Ни одна система ИИ не должна работать в вакууме без человеческой ответственности. Человеческий контроль необходим для выявления и исправления предвзятости, которую машина может усвоить.
Это означает участие человека в важных решениях — например, рекрутера, проверяющего кандидатов, отобранных ИИ, или судью, осторожно рассматривающего оценку риска, выданную ИИ.
Также важна чёткая ответственность: организации должны помнить, что они несут ответственность за решения, принимаемые их алгоритмами, так же как и за решения сотрудников. Регулярные аудиты решений ИИ, оценки влияния предвзятости и возможность объяснения логики ИИ (объяснимость) помогают поддерживать ответственность.
Прозрачность — ещё один важный аспект: открытость о том, как работает система ИИ и её известных ограничениях, способствует доверию и позволяет независимую проверку.
Некоторые юрисдикции уже движутся к обязательной прозрачности для алгоритмических решений с высоким риском (например, требуя от государственных органов раскрывать, как используются алгоритмы в решениях, влияющих на граждан). Цель — обеспечить, чтобы ИИ дополнял человеческое принятие решений без замены этического суждения и юридической ответственности. -
Разнообразные команды и инклюзивная разработка: Растущее число экспертов подчёркивает важность разнообразия среди разработчиков ИИ и заинтересованных сторон. Продукты ИИ отражают взгляды и слепые зоны тех, кто их создаёт.
Если систему ИИ разрабатывает однородная группа людей (например, одного пола, этнической принадлежности или культурного происхождения), они могут не заметить, как она может несправедливо повлиять на других.
Вовлечение разнообразных голосов — включая женщин, расовые меньшинства и экспертов из социальных наук или этики — в процесс проектирования и тестирования приводит к более культурно осознанному ИИ.
ЮНЕСКО отмечает, что по последним данным женщины значительно недопредставлены в ИИ (около 20% технических специалистов и 12% исследователей ИИ — женщины). Повышение представительства — это не только вопрос равенства на рабочем месте, но и улучшение результатов ИИ: если системы ИИ не разрабатываются разнообразными командами, они с меньшей вероятностью удовлетворят потребности разных пользователей и защитят права всех.
Инициативы, такие как платформа ЮНЕСКО Women4Ethical AI, направлены на повышение разнообразия и обмен лучшими практиками по созданию недискриминационного ИИ. -
Регулирование и этические нормы: Правительства и международные организации активно вмешиваются, чтобы обеспечить борьбу с предвзятостью ИИ. В 2021 году государства-члены ЮНЕСКО единогласно приняли Рекомендацию по этике искусственного интеллекта — первую глобальную рамочную основу по этике ИИ.
Она закрепляет принципы прозрачности, справедливости и недискриминации, а также подчёркивает важность человеческого контроля над системами ИИ. Эти принципы служат ориентиром для стран при разработке политик и законов в области ИИ.
Аналогично, новый Закон об ИИ Европейского Союза (который полностью вступит в силу в 2024 году) прямо ставит приоритетом предотвращение предвзятости. Одна из главных целей закона — снизить дискриминацию и предвзятость в системах ИИ с высоким риском.
Закон потребует, чтобы системы, используемые в чувствительных сферах (например, найм, кредитование, правоохранительные органы), проходили строгую оценку на справедливость и не наносили непропорционального вреда защищённым группам.
Нарушения могут привести к крупным штрафам, что создаёт сильный стимул для компаний внедрять механизмы контроля предвзятости.
Помимо общих правил, некоторые местные власти приняли целенаправленные меры — например, более десятка крупных городов (включая Сан-Франциско, Бостон и Миннеаполис) полностью запретили полиции использовать технологии распознавания лиц из-за их доказанной расовой предвзятости и рисков для гражданских прав.
Со стороны индустрии стандартизирующие организации и технологические компании публикуют руководства и разрабатывают инструменты (например, наборы для оценки справедливости и аудита), чтобы помочь специалистам внедрять этику в разработку ИИ.
Движение к «доверенному ИИ» объединяет эти усилия, обеспечивая, чтобы системы ИИ были законными, этичными и надёжными на практике.
>>> Хотите узнать:
Влияние искусственного интеллекта на рабочие места
ИИ и алгоритмическая предвзятость — это глобальная проблема, с которой мы только начинаем эффективно справляться. Приведённые примеры и усилия ясно показывают, что предвзятость ИИ — это не узкоспециализированный вопрос, она влияет на экономические возможности, правосудие, здравоохранение и социальное единство во всём мире.
Хорошая новость в том, что осведомлённость резко возросла, и формируется консенсус, что ИИ должен быть ориентирован на человека и справедливым.
Для достижения этого потребуется постоянное внимание: регулярное тестирование систем ИИ на предвзятость, улучшение данных и алгоритмов, вовлечение разнообразных заинтересованных сторон и обновление нормативной базы по мере развития технологий.
В своей основе борьба с алгоритмической предвзятостью — это согласование ИИ с нашими ценностями равенства и справедливости. Как отметила Генеральный директор ЮНЕСКО Одри Азуле, даже «небольшие предвзятости в содержании [ИИ] могут значительно усиливать неравенство в реальном мире».
Поэтому стремление к непредвзятому ИИ критически важно, чтобы технология поддерживала все слои общества, а не закрепляла старые предрассудки.
Приоритет этических принципов в проектировании ИИ — подкреплённый конкретными действиями и политиками — позволит использовать инновационный потенциал ИИ, сохраняя человеческое достоинство.
Дальнейший путь ИИ — это путь, на котором интеллектуальные машины учатся на лучших человеческих ценностях, а не на наших худших предубеждениях, позволяя технологиям действительно приносить пользу всем.