Цікавитесь алгоритмічними упередженнями в ШІ? Приєднуйтесь до INVIAI, щоб дізнатися більше про штучний інтелект та алгоритмічні упередження у цій статті!
Штучний інтелект (ШІ) дедалі більше проникає в наше повсякденне життя — від прийняття рішень щодо найму до охорони здоров’я та правоохоронної діяльності — але його використання викликає занепокоєння щодо алгоритмічних упереджень. Алгоритмічні упередження — це систематичні та несправедливі упередження у результатах роботи систем ШІ, які часто відображають суспільні стереотипи та нерівності.
По суті, алгоритм ШІ може ненавмисно відтворювати людські упередження, присутні у навчальних даних або конструкції, що призводить до дискримінаційних результатів.
Це питання стало однією з найгарячіших тем у сфері етики технологій, привертаючи увагу дослідників, політиків і лідерів індустрії по всьому світу. Швидке впровадження ШІ робить надзвичайно важливим негайне вирішення проблеми упереджень: без етичних обмежень ШІ ризикує відтворювати реальні упередження та дискримінацію, посилюючи соціальні розколи і навіть загрожуючи фундаментальним правам людини.
Нижче ми розглянемо причини алгоритмічних упереджень, реальні приклади їхнього впливу та те, як світ прагне зробити ШІ справедливішим.
Розуміння алгоритмічних упереджень та їх причин
Алгоритмічні упередження зазвичай виникають не тому, що ШІ «хоче» дискримінувати, а через людські фактори. Системи ШІ навчаються на даних і виконують правила, створені людьми — а люди мають упередження (часто несвідомі).
Якщо навчальні дані спотворені або відображають історичні упередження, ШІ, ймовірно, засвоїть ці шаблони.
Наприклад, алгоритм для відбору резюме, навчений на даних про найм у технологічній галузі за останнє десятиліття (де більшість прийнятих кандидатів були чоловіками), може зробити висновок, що чоловіки є кращими кандидатами, що ставить жінок у невигідне становище. Інші поширені причини — неповні або нерепрезентативні набори даних, упереджене маркування даних або алгоритми, оптимізовані загалом на точність, але не на справедливість для меншин.
Коротко кажучи, алгоритми ШІ успадковують упередження своїх творців і даних, якщо не вжити свідомих заходів для їх виявлення та виправлення.
Важливо зазначити, що алгоритмічні упередження зазвичай є ненавмисними. Організації часто впроваджують ШІ, щоб зробити рішення об’єктивнішими, але якщо вони «подають» системі упереджену інформацію або не враховують справедливість у дизайні, результат може залишатися несправедливим. Упередження ШІ може несправедливо розподіляти можливості та давати неточні результати, що негативно впливає на добробут людей і підриває довіру до ШІ.
Розуміння причин упереджень — це перший крок до їх подолання, і це крок, який науковці, індустрія та уряди у всьому світі зараз сприймають дуже серйозно.
Реальні приклади упереджень ШІ
Упередження в ШІ — це не лише гіпотетична проблема; численні реальні випадки показали, як алгоритмічні упередження можуть призводити до дискримінації. Помітні приклади упереджень ШІ в різних сферах включають:
-
Кримінальна юстиція: у США популярний алгоритм для прогнозування рецидивізму (ймовірності повторного злочину) виявився упередженим проти чорношкірих обвинувачених. Він часто помилково оцінював чорношкірих як високоризикових, а білих — як низькоризикових, посилюючи расові нерівності у винесенні вироків.
Цей випадок демонструє, як ШІ може посилювати історичні упередження в правоохоронній системі та судах. -
Найм і рекрутинг: Amazon відомий тим, що відмовився від інструменту рекрутингу на основі ШІ після виявлення дискримінації жінок. Модель машинного навчання навчилася віддавати перевагу чоловікам, оскільки була навчена на резюме, переважно чоловіків.
Внаслідок цього резюме з такими словами, як «жіночий» (наприклад, «капітан жіночого шахового клубу») або з назвами виключно жіночих коледжів, отримували нижчі оцінки. Цей упереджений алгоритм найму несправедливо відсіював кваліфікованих жінок на технічні посади. -
Охорона здоров’я: алгоритм, який використовували лікарні США для визначення пацієнтів, які потребують додаткової уваги, недооцінював потреби чорношкірих пацієнтів порівняно з білими. Система прогнозувала пріоритетність догляду на основі витрат на медичне обслуговування: оскільки історично на чорношкірих пацієнтів витрачали менше грошей при однаковому рівні захворювання, алгоритм помилково вважав їх «здоровішими» і присвоював нижчі ризикові оцінки.
На практиці це означало, що багато чорношкірих пацієнтів, які потребували більшої уваги, залишалися поза увагою — дослідження показало, що вони мали приблизно на $1800 менші медичні витрати на рік, ніж однаково хворі білі пацієнти, що призводило до недостатнього лікування. -
Розпізнавання облич: технологія розпізнавання облич демонструє значні упередження у точності залежно від демографічних груп. Всеосяжне дослідження 2019 року Національного інституту стандартів і технологій США (NIST) показало, що більшість алгоритмів розпізнавання облич мають значно вищі показники помилок для людей кольору шкіри та жінок, ніж для білих чоловіків.
У сценаріях порівняння «один до одного» (перевірка, чи дві фотографії належать одній особі) помилкові позитивні ідентифікації для азіатських і афроамериканських облич були у 10–100 разів частішими, ніж для європейських, у деяких алгоритмах. У пошуках «один до багатьох» (визначення особи з бази даних, що використовується правоохоронними органами) найвищі показники помилок були у чорношкірих жінок — небезпечне упередження, яке вже призвело до помилкових арештів невинних людей.
Ці розбіжності демонструють, як упереджений ШІ може непропорційно шкодити маргіналізованим групам. -
Генеративний ШІ та онлайн-контент: навіть найновіші системи ШІ не застраховані від упереджень. Дослідження ЮНЕСКО 2024 року показало, що великі мовні моделі (ШІ, що стоїть за чатботами та генераторами контенту) часто відтворюють регресивні гендерні та расові стереотипи.
Наприклад, жінок описували у домашніх ролях у чотири рази частіше, ніж чоловіків за даними однієї популярної моделі, причому жіночі імена часто асоціювалися зі словами «дім» і «діти», а чоловічі — з «керівництвом», «зарплатою» та «кар’єрою». Аналогічно, дослідження виявило гомофобні упередження та культурні стереотипи у відповідях цих моделей.
Оскільки мільйони людей щодня користуються генеративним ШІ, навіть тонкі упередження в контенті можуть посилювати нерівності у реальному світі, масштабно закріплюючи стереотипи.
Ці приклади підкреслюють, що алгоритмічні упередження — це не віддалена чи рідкісна проблема — вона відбувається у різних сферах сьогодні. Від робочих можливостей до правосуддя, охорони здоров’я та онлайн-інформації упереджені системи ШІ можуть відтворювати і навіть посилювати існуючу дискримінацію.
Шкода найчастіше стосується історично знедолених груп, що викликає серйозні етичні та правозахисні занепокоєння. Як попереджає ЮНЕСКО, ризики ШІ «накладаються на існуючі нерівності, завдаючи додаткової шкоди вже маргіналізованим групам».
Чому упередження ШІ має значення?
Ставки у боротьбі з упередженнями ШІ дуже високі. Якщо їх не контролювати, упереджені алгоритми можуть закріпити системну дискримінацію під виглядом технологічної нейтральності. Рішення, прийняті (або підказані) ШІ — хто отримує роботу, кредит чи умовно-дострокове звільнення, як поліція здійснює нагляд — мають реальні наслідки для життя людей.
Якщо ці рішення несправедливо упереджені проти певних статей, рас чи спільнот, соціальна нерівність зростає. Це може призвести до відмови у можливостях, економічних розривів або навіть загроз особистій свободі та безпеці постраждалих груп.
У ширшому контексті алгоритмічні упередження підривають права людини та соціальну справедливість, суперечачи принципам рівності та недискримінації, які підтримують демократичні суспільства.
Упередження в ШІ також підриває громадську довіру до технологій. Люди менш схильні довіряти або використовувати системи ШІ, які сприймаються як несправедливі або непрозорі.
Для бізнесу та урядів цей дефіцит довіри є серйозною проблемою — успішні інновації потребують довіри громадськості. Як зазначив один експерт, справедливі та неупереджені рішення ШІ — це не лише етично правильно, вони корисні для бізнесу та суспільства, бо стійкі інновації базуються на довірі.
Навпаки, широко розголошені провали ШІ через упередження (як наведені вище випадки) можуть завдати шкоди репутації та легітимності організації.
Крім того, алгоритмічні упередження можуть зменшити потенційні переваги ШІ. ШІ має потенціал підвищувати ефективність і якість прийняття рішень, але якщо його результати дискримінаційні або неточні для певних груп населення, він не зможе реалізувати свій повний позитивний вплив.
Наприклад, інструмент ШІ для охорони здоров’я, який добре працює для однієї демографічної групи, але погано — для інших, не є справді ефективним або прийнятним. Як зауважує ОЕСР, упередження в ШІ несправедливо обмежує можливості і може коштувати бізнесу репутації та довіри користувачів.
Отже, подолання упереджень — це не лише моральний обов’язок, а й ключ до використання переваг ШІ для всіх людей справедливо.
Стратегії пом’якшення упереджень ШІ
Оскільки алгоритмічні упередження тепер широко визнані, з’явився ряд стратегій і найкращих практик для їх пом’якшення. Забезпечення справедливості та інклюзивності систем ШІ вимагає дій на різних етапах розробки та впровадження:
-
Покращення практик роботи з даними: оскільки упереджені дані є коренем проблеми, ключовим є підвищення якості даних. Це означає використання різноманітних, репрезентативних навчальних наборів даних, які включають меншини, та ретельну перевірку на спотворення або прогалини.
Також це передбачає аудит даних на наявність історичних упереджень (наприклад, різні результати за расою чи статтю) та їх корекцію або балансування перед навчанням моделі. У випадках, коли певні групи недостатньо представлені, допомагають методи доповнення даних або синтетичні дані.
Дослідження NIST показало, що більш різноманітні навчальні дані можуть забезпечити більш справедливі результати у розпізнаванні облич, наприклад. Постійний моніторинг результатів ШІ також може рано виявляти проблеми з упередженнями — що вимірюється, те й керується. Якщо організація збирає точні дані про те, як рішення алгоритму відрізняються за демографічними ознаками, вона може виявити несправедливі патерни та їх усунути. -
Справедливий дизайн алгоритмів: розробники повинні свідомо інтегрувати обмеження справедливості та методи пом’якшення упереджень у навчання моделей. Це може включати використання алгоритмів, які можна налаштовувати на справедливість (а не лише на точність), або застосування технік для вирівнювання рівня помилок між групами.
Існують інструменти та фреймворки (багато з відкритим кодом) для тестування моделей на упередження та їх корекції — наприклад, переналаштування ваг даних, зміна порогів прийняття рішень або обережне вилучення чутливих ознак.
Важливо, що існує кілька математичних визначень справедливості (наприклад, рівність прогнозів, рівність рівня хибнопозитивних результатів тощо), які іноді суперечать одне одному. Вибір правильного підходу до справедливості вимагає етичного судження та врахування контексту, а не лише технічних налаштувань.
Тому команди ШІ заохочують співпрацювати з експертами галузі та зацікавленими спільнотами при визначенні критеріїв справедливості для конкретного застосування. -
Людський контроль і відповідальність: жодна система ШІ не повинна працювати без людської відповідальності. Людський нагляд є ключовим для виявлення та виправлення упереджень, які може засвоїти машина.
Це означає участь людей у важливих рішеннях — наприклад, рекрутера, який переглядає кандидатів, відбраних ШІ, або суддю, який з обережністю оцінює ризиковий бал, наданий ШІ.
Також це означає чітке визначення відповідальності: організації повинні пам’ятати, що вони несуть відповідальність за рішення, прийняті їхніми алгоритмами, так само як і за рішення працівників. Регулярні аудити рішень ШІ, оцінки впливу упереджень і здатність пояснювати логіку ШІ (прозорість) допомагають підтримувати відповідальність.
Прозорість — ще один важливий аспект: відкритість щодо того, як працює система ШІ та її відомих обмежень, може зміцнити довіру і дозволити незалежний контроль.
Насправді деякі юрисдикції рухаються до впровадження вимог прозорості для алгоритмічних рішень з високими ставками (наприклад, зобов’язуючи державні установи розкривати, як алгоритми використовуються у рішеннях, що впливають на громадян). Мета — забезпечити, щоб ШІ доповнював людське прийняття рішень без заміни етичного судження чи юридичної відповідальності. -
Різноманітні команди та інклюзивна розробка: зростає кількість експертів, які підкреслюють цінність різноманітності серед розробників і зацікавлених сторін ШІ. Продукти ШІ відображають перспективи та «сліпі плями» тих, хто їх створює.
Якщо систему ШІ розробляє однорідна група людей (наприклад, однієї статі, етнічної групи чи культурного походження), вони можуть не помітити, як вона може несправедливо впливати на інших.
Залучення різних голосів — включно з жінками, расовими меншинами та експертами з соціальних наук чи етики — у процес розробки та тестування сприяє створенню більш культурно чутливого ШІ.
ЮНЕСКО зазначає, що за останніми даними жінки суттєво недопредставлені у сфері ШІ (лише близько 20% технічних працівників і 12% дослідників ШІ — жінки). Збільшення представленості — це не лише питання рівності на робочому місці, а й покращення результатів ШІ: якщо системи ШІ не розробляють різноманітні команди, вони менш імовірно задовольнять потреби різних користувачів або захистять права всіх.
Ініціативи, як платформа ЮНЕСКО Women4Ethical AI, спрямовані на підвищення різноманітності та поширення найкращих практик для недискримінаційного дизайну ШІ. -
Регулювання та етичні настанови: уряди та міжнародні організації активно втручаються, щоб забезпечити вирішення проблеми упереджень у ШІ. У 2021 році держави-члени ЮНЕСКО одноголосно ухвалили Рекомендації з етики штучного інтелекту — першу глобальну рамку етики ШІ.
Вони закріплюють принципи прозорості, справедливості та недискримінації і наголошують на важливості людського нагляду за системами ШІ. Ці принципи слугують орієнтиром для країн у розробці політик і законів щодо ШІ.
Аналогічно, новий Закон про ШІ Європейського Союзу (який набуде повної чинності у 2024 році) чітко ставить пріоритетом запобігання упередженням. Одна з головних цілей Закону — зменшення дискримінації та упереджень у системах ШІ з високим ризиком.
Закон вимагатиме, щоб системи, що використовуються у чутливих сферах (найм, кредитування, правоохоронна діяльність тощо), проходили суворі оцінки на справедливість і не завдавали непропорційної шкоди захищеним групам.
Порушення можуть призвести до значних штрафів, що створює сильний стимул для компаній впроваджувати контролі упереджень.
Окрім загального регулювання, деякі місцеві уряди вжили цілеспрямованих заходів — наприклад, більше десятка великих міст (включно з Сан-Франциско, Бостоном і Міннеаполісом) повністю заборонили поліції використовувати технологію розпізнавання облич через її доведену расову упередженість і ризики для громадянських прав.
Зі сторони індустрії стандартизуючі організації та технологічні компанії публікують настанови та розробляють інструменти (наприклад, набори інструментів для справедливості та аудиторські фреймворки), щоб допомогти практикам впроваджувати етику у розробку ШІ.
Рух до «надійного ШІ» поєднує ці зусилля, забезпечуючи, щоб системи ШІ були законними, етичними та надійними на практиці.
>>> Хочете дізнатися:
Вплив штучного інтелекту на робочі місця
Штучний інтелект і алгоритмічні упередження — це глобальний виклик, який ми лише починаємо ефективно долати. Наведені приклади та зусилля чітко показують, що упередження ШІ — це не локальна проблема, а питання, що впливає на економічні можливості, правосуддя, охорону здоров’я та соціальну згуртованість у всьому світі.
Доброю новиною є те, що обізнаність різко зросла, і формується консенсус, що ШІ має бути орієнтований на людину і справедливим.
Досягнення цього вимагатиме постійної пильності: безперервного тестування систем ШІ на упередження, покращення даних і алгоритмів, залучення різноманітних зацікавлених сторін і оновлення регуляторних норм у міру розвитку технологій.
У своїй основі боротьба з алгоритмічними упередженнями полягає у узгодженні ШІ з нашими цінностями рівності та справедливості. Як зазначила Генеральна директорка ЮНЕСКО Одрі Азуле, навіть «невеликі упередження в контенті [ШІ] можуть суттєво посилити нерівності у реальному світі».
Отже, прагнення до неупередженого ШІ є критично важливим, щоб технологія підтримувала всі верстви суспільства, а не закріплювала старі упередження.
Пріоритетне впровадження етичних принципів у дизайн ШІ — і підкріплення їх конкретними діями та політиками — дозволить нам використати інноваційний потенціал ШІ, одночасно захищаючи гідність людини.
Шлях уперед для ШІ — це шлях, де розумні машини навчаються найкращим цінностям людства, а не найгіршим упередженням, даючи змогу технологіям справді приносити користь усім.