Штучний інтелект (ШІ) сьогодні пронизує все — від помічників у смартфонах і стрічок у соціальних мережах до охорони здоров’я та транспорту. Ці технології приносять безпрецедентні переваги, але водночас супроводжуються суттєвими ризиками та викликами.
Експерти та міжнародні інституції попереджають, що без належних етичних обмежень ШІ може відтворювати упередження та дискримінацію, сприяти шкоді довкіллю, загрожувати правам людини та посилювати існуючу нерівність.
У цій статті разом із INVIAI розглянемо ризики використання ШІ у всіх сферах і типах ШІ — від чатботів і алгоритмів до роботів — на основі даних офіційних та міжнародних джерел.
- 1. Упередженість і дискримінація в системах ШІ
- 2. Небезпеки дезінформації та дипфейків
- 3. Загрози приватності та масового спостереження
- 4. Збої безпеки та ненавмисна шкода
- 5. Втрата робочих місць і економічні потрясіння
- 6. Злочинне використання, шахрайство та загрози безпеці
- 7. Мілітаризація та автономна зброя
- 8. Відсутність прозорості та підзвітності
- 9. Концентрація влади та нерівність
- 10. Вплив ШІ на довкілля
- 11. Екзистенційні та довгострокові ризики
Упередженість і дискримінація в системах ШІ
Одним із головних ризиків ШІ є закріплення упереджень і несправедливої дискримінації. Моделі ШІ навчаються на даних, які можуть відображати історичні упередження або нерівності; у результаті система ШІ може по-різному ставитися до людей за расою, статтю чи іншими ознаками, що підтримує несправедливість.
Наприклад, «несправно працюючий універсальний ШІ може завдавати шкоди через упереджені рішення щодо захищених характеристик, таких як раса, стать, культура, вік і інвалідність», — йдеться в міжнародному звіті з безпеки ШІ.
Упереджені алгоритми, що застосовуються при наймі, кредитуванні чи правоохоронній діяльності, вже призвели до нерівних результатів, які несправедливо ставлять у невигідне становище певні групи. Глобальні організації, як-от ЮНЕСКО, застерігають, що без заходів справедливості ШІ ризикує «відтворювати реальні упередження та дискримінацію, розпалювати розбіжності та загрожувати фундаментальним правам і свободам людини». Забезпечення навчання систем ШІ на різноманітних, репрезентативних даних і проведення аудиту на предмет упередженості є необхідним для запобігання автоматизованій дискримінації.
Небезпеки дезінформації та дипфейків
Здатність ШІ генерувати надреалістичні тексти, зображення та відео викликає побоювання щодо лавини дезінформації. Генеративний ШІ може створювати переконливі фейкові новини, підроблені зображення або дипфейкові відео, які важко відрізнити від реальності.
Звіт Світового економічного форуму Global Risks Report 2024 визначає «маніпульовану та сфальсифіковану інформацію» як найсерйозніший короткостроковий глобальний ризик, зазначаючи, що ШІ «підсилює маніпульовану та спотворену інформацію, яка може дестабілізувати суспільства».
Насправді дезінформація, підживлена ШІ, є одним із «найбільших викликів для демократичного процесу» — особливо з огляду на мільярди людей, які мають голосувати на найближчих виборах. Синтетичні медіа, як-от дипфейкові відео та клоновані голоси, можуть використовуватися для поширення пропаганди, імітації публічних осіб або шахрайства.
Офіційні особи попереджають, що зловмисники можуть використовувати ШІ для масштабних кампаній дезінформації, що полегшує засмічення соцмереж фейковим контентом і посів хаосу. Ризик полягає у створенні цинічного інформаційного середовища, де громадяни не можуть довіряти тому, що бачать чи чують, що підриває суспільний дискурс і демократію.
Загрози приватності та масового спостереження
Широке застосування ШІ викликає серйозні питання приватності. Системи ШІ часто потребують величезних обсягів персональних даних — від облич і голосів до звичок покупок і місцезнаходження — для ефективної роботи. Без надійного захисту ці дані можуть бути зловживані або експлуатовані.
Наприклад, технології розпізнавання облич і прогнозні алгоритми можуть забезпечити повсюдне спостереження, відстежуючи кожен рух людини або оцінюючи її поведінку без згоди. Глобальна етична рекомендація ЮНЕСКО чітко застерігає, що «системи ШІ не повинні використовуватися для соціального рейтингу чи масового спостереження». Такі практики вважаються неприйнятними ризиками.
Крім того, аналіз персональних даних за допомогою ШІ може розкривати інтимні подробиці життя — від стану здоров’я до політичних переконань, що загрожує праву на приватність. Органи захисту даних наголошують, що приватність — це «право, яке є основою захисту людської гідності, автономії та свободи вибору», і його слід поважати протягом усього життєвого циклу системи ШІ.
Якщо розвиток ШІ випереджатиме регулювання приватності, люди можуть втратити контроль над власною інформацією. Суспільство має забезпечити надійне управління даними, механізми згоди та методи захисту приватності, щоб технології ШІ не перетворилися на інструменти неконтрольованого спостереження.
Збої безпеки та ненавмисна шкода
Хоча ШІ може автоматизувати рішення та фізичні завдання з надлюдською ефективністю, він також може збиватися з курсу непередбачуваними способами, що призводить до реальної шкоди. Ми довіряємо ШІ все більше відповідальних завдань, пов’язаних із безпекою — керування автомобілями, діагностика пацієнтів, управління енергомережами — але ці системи не є бездоганними.
Збої, помилкові навчальні дані або непередбачені ситуації можуть спричинити небезпечні помилки. ШІ автопілота може неправильно розпізнати пішохода, або медичний ШІ може порадити неправильне лікування з потенційно смертельними наслідками.
Враховуючи це, міжнародні настанови підкреслюють, що небажані шкоди та ризики безпеки від ШІ слід передбачати і запобігати: «Небажані шкоди (ризики безпеки), а також вразливості до атак (ризики безпеки) повинні уникатися і вирішуватися протягом усього життєвого циклу систем ШІ для забезпечення безпеки людей, довкілля та екосистем.»
Інакше кажучи, системи ШІ мають проходити ретельне тестування, моніторинг і бути оснащені захисними механізмами, щоб мінімізувати ймовірність збоїв. Надмірна довіра до ШІ також небезпечна — якщо люди беззастережно довірятимуть автоматизованим рішенням, вони можуть не встигнути втрутитися у разі помилки.
Тому забезпечення людського контролю є критично важливим. У сферах із високими ставками (охорона здоров’я, транспорт) остаточні рішення мають залишатися за людиною, і, як зазначає ЮНЕСКО, «рішення про життя і смерть не повинні передаватися системам ШІ». Підтримка безпеки та надійності ШІ — це постійне завдання, що вимагає ретельного проєктування та культури відповідальності серед розробників.
Втрата робочих місць і економічні потрясіння
Трансформаційний вплив ШІ на економіку має дві сторони. З одного боку, ШІ підвищує продуктивність і створює нові галузі; з іншого — існує ризик втрати мільйонів робочих місць через автоматизацію.
Багато професій — особливо ті, що пов’язані з рутинними, повторюваними завданнями або легко аналізованими даними — уразливі до заміщення алгоритмами та роботами. Глобальні прогнози стримані: наприклад, Світовий економічний форум прогнозує, що «до 2030 року може бути втрачено 92 мільйони робочих місць» через ШІ та суміжні технології.
Хоча економіка може створити нові робочі місця (можливо, навіть більше, ніж втрачено), перехід буде болючим для багатьох. Нові позиції часто вимагають інших, більш складних навичок або зосереджені в певних технологічних центрах, через що багато звільнених працівників можуть зіткнутися з труднощами у пошуку нового місця.
Цей розрив між навичками працівників і вимогами нових ролей, керованих ШІ, може призвести до зростання безробіття та нерівності, якщо його не вирішувати. Політики та дослідники попереджають про «порушення ринку праці та нерівність економічної влади» у масштабах системи.
Деякі групи постраждають більше — наприклад, дослідження показують, що більша частка робочих місць, зайнятих жінками або працівниками в країнах, що розвиваються, перебуває під високим ризиком автоматизації. Без проактивних заходів (перекваліфікації, освіти в галузі ШІ, соціальних гарантій) ШІ може посилити соціально-економічні розриви, створюючи економіку, де власники технологій отримують більшість вигод.
Підготовка робочої сили до впливу ШІ є ключовою для того, щоб переваги автоматизації були розподілені справедливо і щоб уникнути соціальних потрясінь через масову втрату робочих місць.
Злочинне використання, шахрайство та загрози безпеці
ШІ — потужний інструмент, який може бути використаний як у благих, так і у злочинних цілях. Кіберзлочинці та інші зловмисники вже застосовують ШІ для посилення своїх атак.
Наприклад, ШІ може створювати дуже персоналізовані фішингові листи або голосові повідомлення (клонувавши голос) для обману людей з метою отримання конфіденційної інформації або грошей. Він також може автоматизувати хакерські атаки, знаходячи вразливості в програмному забезпеченні, або розробляти шкідливе ПЗ, що адаптується для уникнення виявлення.
Центр безпеки ШІ визначає злочинне використання ШІ як ключову проблему, зазначаючи сценарії, коли злочинці застосовують ШІ для масштабного шахрайства та кібератак. Звіт, замовлений урядом Великої Британії, прямо попереджає, що «зловмисники можуть використовувати ШІ для масштабних операцій з дезінформації, впливу, шахрайства та афер».
Швидкість, масштаб і складність, які забезпечує ШІ, можуть перевантажити традиційні засоби захисту — уявіть тисячі шахрайських дзвінків або дипфейкових відео, спрямованих на безпеку компанії за один день.
Окрім фінансових злочинів, існує ризик використання ШІ для крадіжки особистості, переслідувань або створення шкідливого контенту (наприклад, дипфейків порнографії без згоди або пропаганди екстремістських груп). Зі зростанням доступності інструментів ШІ бар’єр для здійснення таких злочинів знижується, що може призвести до сплеску злочинності з використанням ШІ.
Це вимагає нових підходів до кібербезпеки та правоохоронної діяльності, таких як системи ШІ для виявлення дипфейків або аномальної поведінки та оновлені правові рамки для притягнення винних до відповідальності. По суті, ми маємо передбачати, що будь-які можливості, які ШІ надає добросовісним користувачам, можуть бути використані й злочинцями — і готуватися відповідно.
Мілітаризація та автономна зброя
Можливо, найстрашніший ризик ШІ виникає у контексті війни та національної безпеки. ШІ швидко інтегрується у військові системи, що породжує перспективу автономної зброї («вбивчі роботи») та прийняття рішень у бою за допомогою ШІ.
Ці технології можуть реагувати швидше за людину, але позбавлення людського контролю над застосуванням смертоносної сили несе великі ризики. Існує загроза, що зброя під контролем ШІ може вибрати неправильну ціль або загострити конфлікти непередбачуваними способами. Міжнародні спостерігачі попереджають, що «озброєння ШІ для військового використання» — це зростаюча загроза.
Якщо країни почнуть гонку озброєнь із розумною зброєю, це може спровокувати дестабілізуючу гонку озброєнь. Крім того, ШІ може застосовуватися у кібервійні для автономних атак на критичну інфраструктуру або поширення пропаганди, розмиваючи межу між миром і конфліктом.
Організація Об’єднаних Націй висловила занепокоєння, що розвиток ШІ у військовій сфері, якщо він зосередиться в руках небагатьох, «може бути нав’язаний людям без їхньої згоди щодо способів його використання», підриваючи глобальну безпеку та етику.
Автономні системи зброї також ставлять правові та моральні дилеми — хто нестиме відповідальність, якщо дрон під керуванням ШІ випадково вб’є цивільних? Як такі системи відповідатимуть міжнародному гуманітарному праву?
Ці невирішені питання призвели до закликів заборонити або суворо регулювати певні види зброї з ШІ. Забезпечення людського контролю над будь-яким ШІ, що приймає рішення про життя і смерть, вважається першочерговим. Без цього ризик — не лише трагічні помилки на полі бою, а й втрата людської відповідальності у війні.
Відсутність прозорості та підзвітності
Більшість сучасних систем ШІ працюють як «чорні скриньки» — їхня внутрішня логіка часто непрозора навіть для розробників. Відсутність прозорості створює ризик, що рішення ШІ не можна пояснити або оскаржити, що є серйозною проблемою у сферах правосуддя, фінансів чи охорони здоров’я, де пояснюваність може бути юридичною або етичною вимогою.
Якщо ШІ відмовляє у кредиті, ставить діагноз або вирішує, хто вийде на умовно-дострокове звільнення, ми природно хочемо знати чому. Для деяких моделей ШІ (особливо складних нейронних мереж) надати чітке обґрунтування складно.
«Відсутність прозорості» може підривати довіру і «також може ускладнити ефективне оскарження рішень, прийнятих на основі результатів систем ШІ», — зазначає ЮНЕСКО, — «і тим самим порушувати право на справедливий суд і ефективний захист».
Інакше кажучи, якщо ні користувачі, ні регулятори не можуть зрозуміти, як ШІ приймає рішення, стає майже неможливо притягнути когось до відповідальності за помилки чи упередження.
Цей розрив у підзвітності — серйозний ризик: компанії можуть уникати відповідальності, звинувачуючи «алгоритм», а постраждалі залишаться без засобів захисту. Щоб протидіяти цьому, експерти виступають за пояснюваний ШІ, ретельний аудит і регуляторні вимоги, щоб рішення ШІ можна було відстежити до людської відповідальності.
Глобальні етичні настанови наполягають, що завжди має бути можливо «притягнути до етичної та юридичної відповідальності» за поведінку систем ШІ конкретну особу або організацію. Люди мають залишатися остаточно відповідальними, а ШІ повинен допомагати, а не замінювати людський розум у чутливих питаннях. Інакше ми ризикуємо створити світ, де важливі рішення приймають незрозумілі машини — а це шлях до несправедливості.
Концентрація влади та нерівність
Революція ШІ відбувається нерівномірно у світі — невелика кількість корпорацій і країн домінує у розвитку передового ШІ, що несе власні ризики.
Передові моделі ШІ потребують величезних обсягів даних, талантів і обчислювальних ресурсів, які наразі мають лише технологічні гіганти (та добре фінансовані уряди). Це призвело до «висококонцентрованого, унікального, глобально інтегрованого ланцюга постачання, що сприяє кільком компаніям і країнам», за даними Світового економічного форуму.
Така концентрація влади у сфері ШІ може означати монополістичний контроль над технологіями ШІ, обмежуючи конкуренцію та вибір споживачів. Це також підвищує ризик того, що пріоритети цих небагатьох компаній чи країн формуватимуть ШІ так, що він не враховуватиме інтереси широкої громадськості.
ООН зазначила «небезпеку того, що технологія [ШІ] може бути нав’язана людям без їхньої згоди щодо способів її використання», коли розвиток зосереджений у руках небагатьох.
Ця диспропорція може посилити глобальну нерівність: багаті країни та компанії отримують переваги від ШІ, тоді як бідніші спільноти не мають доступу до новітніх інструментів і страждають від втрати робочих місць без отримання вигод від ШІ. Крім того, концентрована індустрія ШІ може стримувати інновації (якщо новачки не можуть конкурувати з ресурсами лідерів) і створювати загрози безпеці (якщо критична інфраструктура ШІ контролюється небагатьма, вона стає єдиною точкою відмови або маніпуляції).
Вирішення цього ризику вимагає міжнародної співпраці та, можливо, нових регуляцій для демократизації розвитку ШІ — наприклад, підтримки відкритих досліджень, забезпечення справедливого доступу до даних і обчислювальних ресурсів, а також розробки політик (як-от запропонований ЄС Закон про ШІ) для запобігання зловживанням з боку «вратарів ШІ». Більш інклюзивний ландшафт ШІ допоможе забезпечити глобальне розподілення вигод від ШІ, а не розширення розриву між технологічними гігантами та іншими.
Вплив ШІ на довкілля
Часто в обговореннях ризиків ШІ ігнорується його екологічний слід. Розробка ШІ, особливо навчання великих моделей машинного навчання, споживає величезні обсяги електроенергії та обчислювальних ресурсів.
Дата-центри, заповнені тисячами енергоємних серверів, необхідні для обробки потоків даних, на яких навчаються системи ШІ. Це означає, що ШІ опосередковано сприяє викидам вуглецю та зміні клімату.
Нещодавній звіт агентства ООН виявив, що непрямі викиди вуглецю чотирьох провідних технологічних компаній, орієнтованих на ШІ, зросли в середньому на 150% з 2020 по 2023 роки, переважно через енергетичні потреби дата-центрів ШІ.
Зі зростанням інвестицій у ШІ очікується стрімке зростання викидів від роботи моделей ШІ — у звіті прогнозується, що найпотужніші системи ШІ можуть разом викидати понад 100 мільйонів тонн CO₂ на рік, що створює значне навантаження на енергетичну інфраструктуру.
Для порівняння, дата-центри, що живлять ШІ, збільшують споживання електроенергії «у чотири рази швидше за загальне зростання споживання електроенергії».
Окрім викидів вуглецю, ШІ також споживає багато води для охолодження і продукує електронні відходи через швидке оновлення обладнання. Якщо це залишити без контролю, вплив ШІ на довкілля може підірвати глобальні зусилля зі сталого розвитку.
Цей ризик вимагає зробити ШІ енергоефективнішим та використовувати чистіші джерела енергії. Дослідники розробляють «зелений» ШІ для зниження споживання енергії, а деякі компанії взяли на себе зобов’язання компенсувати вуглецевий слід ШІ. Проте це залишається нагальною проблемою, адже швидкий розвиток ШІ може мати значну екологічну ціну. Балансування технологічного прогресу з екологічною відповідальністю — ще один виклик, який суспільство має подолати під час інтеграції ШІ у всі сфери.
Екзистенційні та довгострокові ризики
Окрім безпосередніх ризиків, деякі експерти попереджають про більш спекулятивні, довгострокові ризики від ШІ — зокрема можливість появи передового ШІ, який вийде з-під контролю людини. Хоча сучасні системи ШІ мають вузькі можливості, дослідники активно працюють над створенням більш загального ШІ, який потенційно може перевершити людину у багатьох сферах.
Це породжує складні питання: якщо ШІ стане значно розумнішим або автономнішим, чи може він діяти так, що загрожуватиме існуванню людства? Хоча це звучить як наукова фантастика, відомі фігури у технологічній спільноті висловлюють занепокоєння щодо сценаріїв «некерованого ШІ», а уряди серйозно ставляться до цих дискусій.
У 2023 році Великобританія провела глобальний саміт з безпеки ШІ для обговорення ризиків передового ШІ. Науковий консенсус не є одностайним — деякі вважають, що суперінтелектуальний ШІ віддалений на десятиліття або може бути узгоджений із людськими цінностями, тоді як інші бачать невеликий, але реальний ризик катастрофічних наслідків.
Нещодавній міжнародний звіт з безпеки ШІ підкреслює, що «експерти мають різні погляди на ризик втрати людством контролю над ШІ, що може призвести до катастрофічних наслідків».
По суті, визнається, що екзистенційний ризик від ШІ, хоч і віддалений, не можна повністю виключати. Такий сценарій може передбачати, що ШІ переслідуватиме свої цілі на шкоду добробуту людей (класичний приклад — ШІ, який, якщо його неправильно запрограмувати, може завдати масштабної шкоди через відсутність здорового глузду чи моральних обмежень).
Хоча сьогодні жоден ШІ не має такої автономії, швидкість розвитку ШІ є високою та непередбачуваною, що само по собі є фактором ризику. Підготовка до довгострокових ризиків означає інвестування в дослідження узгодження ШІ (щоб цілі ШІ залишалися сумісними з людськими цінностями), встановлення міжнародних угод щодо досліджень ШІ з високими ставками (подібно до договорів про ядерну чи біологічну зброю) і підтримку людського контролю в міру зростання можливостей ШІ.
Майбутнє ШІ обіцяє величезні можливості, але також і невизначеність — і розсудливість вимагає враховувати навіть низькоправдоподібні, але високовпливові ризики у довгостроковому плануванні.
>>> Натисніть, щоб дізнатися більше: Переваги штучного інтелекту для фізичних осіб та бізнесу
ШІ часто порівнюють із потужним двигуном, який може рухати людство вперед — але без гальм і керма цей двигун може зійти з курсу. Як ми бачили, ризики використання ШІ є багатогранними: від негайних проблем, як упереджені алгоритми, фейкові новини, порушення приватності та втрати робочих місць, до ширших суспільних викликів, як загрози безпеці, «чорні скриньки» у прийнятті рішень, монополії великих технологій, навантаження на довкілля і навіть віддалена перспектива втрати контролю над суперінтелектом.
Ці ризики не означають, що слід зупинити розвиток ШІ; навпаки, вони підкреслюють нагальну потребу у відповідальному управлінні ШІ та етичних практиках.
Уряди, міжнародні організації, лідери галузі та дослідники все активніше співпрацюють для вирішення цих проблем — наприклад, через рамки, як-от американська AI Risk Management Framework (для підвищення довіри до ШІ), глобальна етична рекомендація ЮНЕСКО щодо ШІ та Закон Європейського Союзу про ШІ.
Такі зусилля спрямовані на максимізацію переваг ШІ при мінімізації його недоліків, забезпечуючи, щоб ШІ служив людству, а не навпаки. Зрештою, розуміння ризиків ШІ — це перший крок до їхнього ефективного управління. Залишаючись поінформованими та залученими у процес розробки та використання ШІ, ми можемо допомогти спрямувати цю трансформаційну технологію у безпечне, справедливе та корисне русло для всіх.