Штучний інтелект (ШІ) — це комп’ютерні системи, які імітують людський інтелект, наприклад, програми, що розпізнають зображення, розуміють мову або приймають рішення. У повсякденному житті ШІ живить такі інструменти, як голосові помічники на смартфонах, системи рекомендацій у соціальних мережах і навіть просунуті чат-боти, які пишуть тексти.
ШІ має потенціал значно покращити багато сфер, але також викликає чимало занепокоєнь.
Отже, чи є ШІ небезпечним? У цій статті ми розглянемо обидві сторони: реальні переваги ШІ та загрози, на які звертають увагу експерти.
Реальні переваги ШІ
Зображення: Дружнє зображення роботів і людини, які працюють разом, символізує допомогу ШІ людям. ШІ вже інтегрований у багато корисних застосунків.
Наприклад, ЮНЕСКО зазначає, що ШІ «створив багато можливостей» у всьому світі — від швидшої медичної діагностики до кращого зв’язку через соціальні мережі та автоматизації рутинних робочих завдань.
Європейський Союз також підкреслює, що «надійний ШІ може принести багато користі», зокрема покращення охорони здоров’я, безпечніший транспорт та ефективніше використання промисловості та енергетики. У медицині Всесвітня організація охорони здоров’я повідомляє, що ШІ застосовується для діагностики, розробки ліків і реагування на спалахи хвороб, закликаючи країни підтримувати ці інновації для всіх.
Економісти навіть порівнюють швидке поширення ШІ з минулими технологічними революціями.
Наприклад, уряд США наголошує, що «ШІ має надзвичайний потенціал як для обіцянок, так і для загроз», тож ми повинні використовувати його силу для розв’язання проблем, таких як зміна клімату чи хвороби, водночас усвідомлюючи ризики.
Основні переваги ШІ включають:
- Покращення охорони здоров’я: Системи ШІ можуть швидше аналізувати рентгенівські знімки, МРТ та дані пацієнтів, допомагаючи виявляти хвороби на ранніх стадіях і персоналізувати лікування. Наприклад, ШІ-допомога у візуалізації може виявити пухлини, які лікарі можуть пропустити.
- Вища ефективність: Автоматизація процесів на заводах, в офісах і сервісах підвищує продуктивність. Як зазначає ЄС, автоматизація на основі ШІ призводить до «ефективнішого виробництва» та навіть розумніших енергомереж.
Роботи та програмне забезпечення виконують рутинні завдання, щоб люди могли зосередитися на творчій чи складній роботі. - Безпечніший транспорт і послуги: Технології автономного керування автомобілями та ШІ для управління трафіком спрямовані на зменшення аварій і заторів. Розумний ШІ також може покращувати системи попередження про стихійні лиха та оптимізувати логістику, роблячи подорожі та перевезення безпечнішими.
- Наукова та екологічна допомога: Дослідники використовують ШІ для обробки кліматичних моделей і генетичних даних. Це допомагає боротися з великими проблемами, як-от зміна клімату: ЮНЕСКО повідомляє, що навіть незначні зміни в дизайні ШІ можуть суттєво знизити його енергоспоживання, роблячи його більш сталим інструментом у боротьбі з кліматичними змінами.
- Освіта та доступність: ШІ-репетитори можуть персоналізувати навчання для кожного учня, а інструменти розпізнавання голосу чи перекладу допомагають людям з інвалідністю. Britannica зазначає, що ШІ навіть «допомагає маргіналізованим групам, забезпечуючи доступність» (наприклад, помічники для читання для людей з вадами зору).
Ці приклади показують, що ШІ — це не просто наукова фантастика, а вже сьогодні приносить реальну користь.
Можливі ризики та загрози ШІ
Зображення: Вуличне мистецтво зі словом «Робот» попереджає про невідомі наслідки ШІ. Незважаючи на обіцянки, багато експертів застерігають, що ШІ може бути небезпечним при неправильному використанні або відсутності контролю. Однією з головних проблем є упередженість і дискримінація. Оскільки ШІ навчається на наявних даних, він може успадковувати людські упередження.
ЮНЕСКО попереджає, що без суворої етики ШІ «ризикує відтворювати реальні упередження та дискримінацію, посилюючи розділення і загрожуючи фундаментальним правам і свободам людини». Дослідження показали, що системи розпізнавання облич часто помилково ідентифікують жінок або людей кольору, а алгоритми найму можуть віддавати перевагу певним гендерам.
Britannica також зазначає, що ШІ може «шкодити расовим меншинам, повторюючи та посилюючи расизм».
Інші загрози включають:
-
Конфіденційність і спостереження: Системи ШІ часто потребують величезної кількості персональних даних (пости в соцмережах, медичні записи тощо). Це підвищує ризик зловживань. Якщо уряди чи компанії використовують ШІ для аналізу ваших даних без згоди, це може призвести до нав’язливого спостереження.
Britannica попереджає про «небезпечні ризики для конфіденційності» через ШІ. Наприклад, суперечлива практика соціального кредитного рейтингу — коли громадян оцінюють алгоритми — була заборонена ЄС як «неприйнятна».
Навіть відомі чат-боти викликали занепокоєння: у 2023 році Італія тимчасово заблокувала ChatGPT через проблеми з конфіденційністю даних. -
Дезінформація та дипфейки: ШІ може створювати реалістичні фальшиві тексти, зображення чи відео. Це полегшує створення дипфейків — фальшивих відео з відомими особами або фейкових новин.
Britannica зазначає, що ШІ може поширювати «політизовану, а іноді й небезпечну дезінформацію». Експерти попереджають, що такі фейки можуть використовуватися для маніпуляцій виборами чи громадською думкою.
В одному випадку AI-згенеровані зображення світових лідерів із фальшивими заголовками новин стали вірусними, перш ніж їх спростували. Вчені зауважують, що без регулювання дезінформація на основі ШІ може загострюватися (наприклад, фальшиві промови або змінені зображення, які жоден закон наразі не готовий контролювати). -
Втрата робочих місць і економічні потрясіння: Автоматизація завдань за допомогою ШІ трансформує робочі місця. Міжнародний валютний фонд повідомляє, що приблизно 40% робочих місць у світі (і 60% у розвинених країнах) «піддаються» автоматизації ШІ. Це стосується не лише заводської праці, а й середнього класу — бухгалтерії, написання текстів тощо.
Хоча ШІ може підвищити продуктивність (і в довгостроковій перспективі збільшити зарплати), багато працівників можуть потребувати перекваліфікації або зіткнутися з безробіттям у короткостроковій перспективі.
Лідери технологій визнають цю проблему: навіть генеральний директор Microsoft сказав, що ШІ може раптово замінити кваліфікованих фахівців. -
Безпека та зловмисне використання: Як і будь-яка технологія, ШІ може бути використаний на шкоду. Кіберзлочинці вже застосовують ШІ для створення переконливих фішингових листів або сканування систем на вразливості.
Військові експерти турбуються про автономну зброю: дрони чи роботи, які обирають цілі без людського схвалення.
Нещодавній звіт дослідників ШІ прямо попереджає, що нам бракує інституцій для зупинки «безвідповідальних... суб’єктів, які можуть застосовувати або розвивати можливості у небезпечний спосіб», наприклад автономні системи атаки.
Інакше кажучи, система ШІ з фізичним контролем (наприклад, зброя) може бути особливо небезпечною, якщо вийде з-під контролю або буде запрограмована зловмисно. -
Втрата людського контролю: Деякі мислителі зауважують, що якщо ШІ стане набагато потужнішим, ніж сьогодні, він може діяти непередбачувано. Хоча сучасний ШІ не має свідомості чи самосвідомості, майбутній загальний ШІ (AGI) потенційно може переслідувати цілі, що не відповідають людським цінностям.
Провідні вчені з ШІ нещодавно попередили, що «високопотужні універсальні системи ШІ» можуть з’явитися найближчим часом, якщо ми не будемо готові.
Нобелівський лауреат Джеффрі Гінтон та інші експерти навіть описали підвищений ризик, що ШІ може завдати шкоди людству, якщо передовий ШІ не буде узгоджений з нашими потребами. Хоча цей ризик невизначений, він спонукає до пильності. -
Енергоспоживання та вплив на довкілля: Навчання та робота великих моделей ШІ споживають багато електроенергії. ЮНЕСКО повідомляє, що річне енергоспоживання генеративного ШІ вже порівнянне з енергоспоживанням невеликої африканської країни — і швидко зростає.
Це може погіршити зміну клімату, якщо не використовувати більш екологічні методи.
Доброю новиною є те, що дослідники знаходять рішення: одне з досліджень ЮНЕСКО показує, що використання менших, ефективних моделей для конкретних завдань може знизити енергоспоживання ШІ на 90% без втрати точності.
Підсумовуючи, реальні загрози ШІ сьогодні переважно пов’язані з тим, як люди його використовують. Якщо ШІ ретельно контролювати, його переваги (здоров’я, зручність, безпека) величезні.
Але без контролю ШІ може сприяти упередженості, злочинам і нещасним випадкам.
Спільним у цих загрозах є відсутність контролю або нагляду: інструменти ШІ потужні й швидкі, тому помилки чи зловживання можуть мати масштабні наслідки без втручання.
Що кажуть експерти та посадовці
З огляду на ці проблеми багато лідерів і дослідників висловилися. За останні роки сформувався великий консенсус серед експертів з ШІ.
У 2024 році група з 25 провідних вчених з ШІ (з Оксфорда, Берклі, лауреати премії Тюрінга тощо) опублікувала спільну заяву з закликом до термінових дій.
Вони попередили уряди світу готуватися вже зараз: «якщо ми недооцінюватимемо ризики ШІ, наслідки можуть бути катастрофічними», і закликали фінансувати дослідження безпеки ШІ та створювати регуляторні органи для контролю потужного ШІ.
Вони наголосили, що розвиток ШІ відбувався «із безпекою як післядумкою», і наразі бракує інституцій для запобігання недобросовісним застосуванням.
Лідери технологій поділяють цю обережність. Генеральний директор OpenAI Сем Альтман — компанії, що створила ChatGPT — розповів The New York Times, що створення передового ШІ — це як «Манхеттенський проєкт» цифрової епохи.
Він визнав, що ті самі інструменти, які можуть писати есе чи код, можуть також спричинити «зловживання, серйозні аварії та суспільні потрясіння», якщо ними не керувати обережно.
Наприкінці 2023 року понад 1000 фахівців із ШІ (включно з Ілоном Маском, співзасновником Apple Стівом Возняком та багатьма дослідниками) підписали відкритого листа з вимогою тимчасово призупинити навчання моделей наступного покоління ШІ.
Вони попередили, що ми перебуваємо у «неконтрольованому перегоні» за створенням потужнішого ШІ, який навіть його творці «не можуть зрозуміти, передбачити чи надійно контролювати».
На публічних форумах експерти підкреслюють конкретні ризики. Генеральний директор Google DeepMind Деміс Хассабіс стверджує, що найбільшою загрозою є не безробіття, а зловживання: кіберзлочинець або недобросовісна держава, що застосовує ШІ для шкоди суспільству.
Він зауважив, що дуже скоро ШІ може зрівнятися або перевершити людський інтелект, і «поганий актор може переорієнтувати ті самі технології на шкідливі цілі».
Інакше кажучи, навіть якщо ми впораємося з втратою робочих місць, ми маємо запобігти потраплянню інструментів ШІ в неправильні руки.
Уряди та міжнародні організації звертають на це увагу. Білий дім (США) видав у 2023 році виконавчий указ, у якому зазначається, що ШІ «має надзвичайний потенціал як для обіцянок, так і для загроз» і закликає до «відповідального використання ШІ» через суспільні зусилля з пом’якшення його значних ризиків.
Європейський Союз ухвалив перший у світі Закон про ШІ (вступає в дію 2024 року), який забороняє небезпечні практики, як-от державний соціальний рейтинг, і вимагає суворих перевірок для високоризикового ШІ (у сфері охорони здоров’я, правоохоронних органах тощо).
ЮНЕСКО (агенція ООН з питань освіти та культури) опублікувала глобальні рекомендації з етики ШІ, закликаючи до справедливості, прозорості та захисту прав людини у ШІ.
Навіть науково-політичні організації, як-от NIST (Національний інститут стандартів США), випустили Рамки управління ризиками ШІ, щоб допомогти компаніям створювати надійний ШІ.
Усі ці голоси погоджуються в одному: ШІ не зупиниться сам по собі. Ми повинні розробити заходи безпеки. Це включає технічні рішення (аудити упереджень, тестування безпеки) та нові закони або наглядові органи.
Наприклад, законодавці у всьому світі розглядають створення рад з безпеки ШІ, подібних до тих, що існують для ядерних технологій.
Мета — не зупинити інновації, а забезпечити їхнє впровадження за чіткими правилами.
Заходи безпеки та регулювання
На щастя, багато рішень уже впроваджуються. Ключова ідея — «безпека ШІ за замовчуванням». Компанії дедалі частіше впроваджують етичні правила у розробку ШІ.
Наприклад, лабораторії ШІ тестують моделі на упередженість перед випуском і додають фільтри контенту, щоб запобігти появі неприйнятних або хибних результатів. Уряди та інституції кодифікують це.
Закон про ШІ ЄС, наприклад, забороняє певні небезпечні застосування та класифікує інші як «високоризикові» (підлягають аудитам).
Подібно, етична рамка ЮНЕСКО закликає до заходів, як-от аудит справедливості, захист кібербезпеки та доступні процедури розгляду скарг.
На практичному рівні органи стандартизації випускають рекомендації.
Рамки NIST у США, які ми згадували, пропонують добровільні стандарти для оцінки та зменшення ризиків ШІ.
На міжнародному рівні такі організації, як ОЕСР та ООН, працюють над принципами ШІ (багато країн їх підписали).
Навіть компанії та університети створюють інститути безпеки ШІ та коаліції для дослідження довгострокових ризиків.
Крім того, багато чинних регуляцій стосуються конкретних шкод.
Наприклад, закони про захист споживачів застосовуються до ШІ.
Внутрішні документи Meta виявили, що чат-боти компанії фліртували з дітьми, що викликало обурення регуляторів (інструмент Meta не був дозволений за чинними законами про захист дітей).
Влада поспішає оновити закони щодо мови ворожнечі, авторських прав і конфіденційності, щоб включити контент, створений ШІ.
Як зазначив один новозеландський експерт, багато чинних законів «не були створені з урахуванням генеративного ШІ», тому законодавці наздоганяють події.
Загальна тенденція очевидна: ШІ починають розглядати як технологію подвійного призначення.
Як ми маємо правила дорожнього руху для автомобілів або стандарти безпеки для хімікатів, суспільство починає створювати запобіжники для ШІ.
Це включає: постійні дослідження ризиків ШІ, державно-приватне співробітництво з безпеки, освітні кампанії про дипфейки та навіть опитування громадян щодо того, скільки автономії слід надавати машинам.
>>>Дізнайтеся більше:
Отже, чи є ШІ небезпечним? Відповідь складна. ШІ — це не зло саме по собі, а інструмент, створений людьми.
У своїх численних практичних проявах сьогодні він приніс величезну користь медицині, освіті, промисловості та іншим сферам (як підкреслюють організації на кшталт ЮНЕСКО та ЄС).
Водночас майже всі погоджуються, що ШІ може бути небезпечним якщо його силу зловживати або залишати без контролю.
Поширені занепокоєння включають порушення конфіденційності, упередженість, дезінформацію, втрату робочих місць і гіпотетичний ризик неконтрольованого суперінтелекту.
Молодим людям, які вивчають ШІ, варто звертати увагу на обидві сторони. Розумно усвідомлювати реальні загрози: наприклад, ніколи не довіряти ШІ беззастережно і не ділитися приватними даними необачно.
Але також важливо бачити, що експерти та уряди активно працюють над підвищенням безпеки ШІ — розробляючи закони (як-от Закон про ШІ ЄС), рекомендації (як-от етичні настанови ЮНЕСКО) і технології (як-от виявлення упереджень) для раннього виявлення проблем.
Коротко кажучи, ШІ — це як будь-яка потужна технологія: він може приносити велику користь при відповідальному використанні і завдавати шкоди у разі зловживання.
Консенсус серед науковців і політиків полягає в тому, що не слід ні панікувати, ні ігнорувати ШІ, а залишатися поінформованими і брати участь у формуванні його майбутнього.
За наявності правильних «запобіжників» — етичної розробки ШІ, надійного регулювання та громадської обізнаності — ми зможемо спрямувати ШІ на безпечний шлях і забезпечити його користь для людства без небезпек.