Штучний інтелект (ШІ) сьогодні став невід’ємною частиною сучасного життя, присутнім у всіх сферах — від бізнесу до медицини. Однак мало хто здогадується, що історія розвитку ШІ почалася ще в середині XX століття і пройшла через численні злети й падіння, перш ніж досягти сучасних проривних досягнень.
Ця стаття INVIAI надасть детальний огляд історії становлення та розвитку ШІ, від перших початкових ідей, через періоди «зими ШІ» з численними труднощами, до революції глибинного навчання та вибухового зростання генеративного ШІ у 2020-х роках.
1950-ті: Початок штучного інтелекту
1950-ті вважаються офіційним початком галузі ШІ. У 1950 році математик Алан Тюрінг опублікував статтю «Computing Machinery and Intelligence», у якій запропонував відомий тест для оцінки здатності машин до мислення — пізніше відомий як тест Тюрінга. Це стало важливою віхою, що заклала ідею про те, що комп’ютери можуть «думати» як люди, створивши теоретичну основу для ШІ.
У 1956 році термін «Artificial Intelligence» (штучний інтелект) був офіційно введений. Того літа в Університеті Дартмута відбулася історична конференція, організована Джоном Маккарті (Дартмутський коледж) разом із колегами Марвіном Мінським, Натаніелем Рочестером (IBM) та Клодом Шенноном.
Маккарті запропонував термін «штучний інтелект» для цієї конференції, а подія Дартмут 1956 року вважається народженням галузі ШІ. Тут сміливі вчені заявили, що «всі аспекти навчання або інтелекту можуть бути змодельовані машинами», поставивши амбітну мету для нової галузі.
Кінець 1950-х ознаменувався багатьма першими досягненнями в ШІ. У 1951 році були створені перші програми ШІ для комп’ютера Ferranti Mark I — зокрема, програма гри в шашки Крістофера Стрейчі та програма гри в шахи Дітріха Прінца, що стало першим випадком, коли комп’ютер навчився грати в інтелектуальні ігри.
У 1955 році Артур Самуель з IBM розробив програму гри в шашки, здатну навчатися на власному досвіді, ставши першою системою машинного навчання. У цей же період Аллен Ньюелл, Герберт Саймон та їхні колеги створили програму Logic Theorist (1956), яка могла автоматично доводити математичні теореми, демонструючи, що машини можуть виконувати логічні міркування.
Поряд із алгоритмами, у 1950-х з’явилися інструменти та мови програмування, спеціалізовані для ШІ. У 1958 році Джон Маккарті винайшов мову Lisp — мову програмування, розроблену спеціально для ШІ, яка швидко стала популярною серед розробників. Того ж року психолог Френк Розенблатт представив Перцептрон — першу модель штучної нейронної мережі, здатну навчатися на даних. Перцептрон вважається початковою основою для сучасних нейронних мереж.
У 1959 році Артур Самуель вперше використав термін «machine learning» (машинне навчання) у статті, що описувала, як комп’ютер може бути запрограмований для навчання та самовдосконалення у грі, перевершуючи навіть програміста. Ці досягнення викликали великий оптимізм: піонери вірили, що за кілька десятиліть машини зможуть досягти людського рівня інтелекту.
1960-ті: Перші кроки вперед
У 1960-х ШІ продовжував розвиватися з численними важливими проектами та винаходами. Лабораторії ШІ були створені у провідних університетах (MIT, Стенфорд, Карнегі-Меллон), залучаючи увагу та фінансування для досліджень. Комп’ютери ставали потужнішими, що дозволяло експериментувати з більш складними ідеями ШІ, ніж у попереднє десятиліття.
Важливим досягненням стало створення першої програми-чатбота. У 1966 році Джозеф Вейценбаум з MIT розробив ELIZA — програму, що імітувала діалог із користувачем у стилі психотерапевта. ELIZA була дуже простою (базувалася на розпізнаванні ключових слів і шаблонних відповідях), але багато користувачів помилково вважали, що ELIZA справді «розуміє» і має емоції. Успіх ELIZA не лише відкрив шлях для сучасних чатботів, а й поставив питання про схильність людей приписувати емоції машинам.
Паралельно з’явилися перші розумні роботи. З 1966 по 1972 роки Стенфордський дослідницький інститут (SRI) розробив Shakey — першого мобільного робота з власною свідомістю та плануванням дій, а не просто виконанням окремих команд. Shakey був оснащений датчиками та камерами для автономного пересування в середовищі та міг аналізувати завдання, виконуючи базові кроки, як-от пошук шляху, пересування перешкод, підйом по схилах. Це був перший випадок інтеграції комп’ютерного зору, обробки природної мови та планування у роботі, заклавши основу для галузі робототехнічного ШІ.
Американська асоціація штучного інтелекту (AAAI) також була заснована в цей період (попередником була конференція IJCAI 1969, а сама AAAI — з 1980 року) для об’єднання дослідників ШІ, що свідчить про зростання спільноти ШІ.
Крім того, 1960-ті відзначилися розвитком експертних систем і базових алгоритмів. У 1965 році Едвард Фейгенбаум та колеги створили DENDRAL — першу у світі експертну систему, призначену для допомоги хімікам у аналізі молекулярної структури на основі експериментальних даних, моделюючи знання та мислення хімічних експертів. Успіх DENDRAL показав, що комп’ютери можуть підтримувати розв’язання складних спеціалізованих задач, заклавши основу для експертних систем, які вибухово розвинулися у 1980-х.
Також у 1972 році в Університеті Марселя була розроблена мова програмування Prolog (спеціалізована для логічного штучного інтелекту), що відкрила підхід до ШІ на основі логіки та реляційних правил. Важливою подією 1969 року стала публікація книги «Perceptrons» Марвіна Мінського та Сеймура Паперта, яка вказала на математичні обмеження одношарових перцептронів (нездатність розв’язати просту задачу XOR), що спричинило серйозні сумніви щодо перспектив нейронних мереж.
Багато спонсорів втратили віру в навчання нейронних мереж, і дослідження нейронних мереж почали занепадати наприкінці 1960-х. Це стало першим сигналом «охолодження» ентузіазму в ШІ після більш ніж десятиліття оптимізму.
1970-ті: Виклики та перша «зима ШІ»
У 1970-х галузь ШІ зіткнулася з реалістичними викликами: багато великих очікувань 1960-х не було досягнуто через обмеження обчислювальної потужності, даних і наукових знань. Внаслідок цього віра та фінансування ШІ почали різко знижуватися у середині 1970-х — цей період пізніше назвали першою «зимою ШІ».
У 1973 році сер Джеймс Лайтхілл підлив масла у вогонь, опублікувавши звіт «Artificial Intelligence: A General Survey», у якому критично оцінив прогрес досліджень ШІ. Звіт Лайтхілла дійшов висновку, що дослідники ШІ «обіцяли забагато, а зробили дуже мало», особливо критикуючи нездатність комп’ютерів розуміти мову чи бачити, як очікувалося.
Цей звіт призвів до того, що уряд Великої Британії скоротив більшість бюджетів на ШІ. У США агентства, як DARPA, також переключили фінансування на більш практичні проекти. В результаті з середини 1970-х до початку 1980-х галузь ШІ майже заморозилася, з малою кількістю проривних робіт і серйозним дефіцитом фінансування. Це і є перша «зима ШІ» — термін, введений у 1984 році для позначення тривалого періоду застою в дослідженнях ШІ.
Незважаючи на труднощі, 1970-ті мали кілька світлих моментів у дослідженнях ШІ. Експертні системи продовжували розвиватися в академічному середовищі, зокрема MYCIN (1974) — медична експертна система для діагностики інфекцій крові, розроблена Тедом Шортліффом у Стенфорді. MYCIN використовував набір правил для висновків і давав досить точні рекомендації, демонструючи практичну цінність експертних систем у вузьких сферах.
Крім того, мова Prolog (випущена 1972 року) почала застосовуватися для задач обробки мови та логіки, ставши важливим інструментом для логічного ШІ. У робототехніці в 1979 році дослідницька група Стенфорда успішно розробила автономний робот Stanford Cart — перший робот, який міг самостійно пересуватися кімнатою з перешкодами без дистанційного керування. Цей невеликий успіх заклав основу для подальших досліджень у сфері автономних транспортних засобів.
Загалом, наприкінці 1970-х дослідження ШІ перейшли у стан застою. Багато вчених змушені були перекваліфікуватися у суміжні галузі, як-от машинне навчання, статистика, робототехніка та комп’ютерний зір, щоб продовжувати роботу.
ШІ вже не був «яскравою зіркою», як у попередньому десятилітті, а став вузькою галуззю з небагатьма помітними проривами. Цей період нагадав дослідникам, що штучний інтелект набагато складніший, ніж передбачалося, і потребує фундаментально нових підходів замість простого моделювання логіки.
1980-ті: Експертні системи — підйом і занепад
На початку 1980-х ШІ знову увійшов у фазу відродження — іноді її називають «ренесансом ШІ». Цьому сприяли комерційні успіхи експертних систем і відновлення інвестицій з боку урядів і бізнесу. Комп’ютери ставали потужнішими, і спільнота вірила, що можна поступово реалізувати ідеї ШІ у вузьких сферах.
Важливим драйвером стали комерційні експертні системи. У 1981 році компанія Digital Equipment Corporation впровадила XCON (Expert Configuration) — експертну систему, що допомагала конфігурувати комп’ютерні системи, заощаджуючи компанії десятки мільйонів доларів. Успіх XCON сприяв хвилі розвитку експертних систем у бізнесі для підтримки прийняття рішень. Багато технологічних компаній інвестували у створення «оболонок» експертних систем, що дозволяло підприємствам адаптувати системи під власні потреби.
Мова Lisp вийшла з лабораторій завдяки появі машин Lisp — апаратного забезпечення, оптимізованого для запуску програм ШІ. На початку 1980-х з’явилася низка стартапів, що спеціалізувалися на Lisp-машинах (Symbolics, Lisp Machines Inc.), породивши інвестиційний бум, відомий як «епоха Lisp-машин» для ШІ.
Великі уряди також активно інвестували в ШІ. У 1982 році Японія запустила Проєкт комп’ютерів п’ятого покоління з бюджетом 850 млн доларів для розробки розумних комп’ютерів на основі логіки та Prolog. Аналогічно США (DARPA) посилили підтримку досліджень ШІ в умовах технологічної конкуренції з Японією. Фінансування було зосереджене на експертних системах, обробці природної мови та базах знань з метою створення потужних інтелектуальних комп’ютерів.
Паралельно штучні нейронні мережі почали тихо відроджуватися. У 1986 році дослідник Джеффрі Гінтон та колеги опублікували алгоритм Backpropagation (зворотне поширення помилки) — ефективний метод навчання багатошарових нейронних мереж, що подолав обмеження, описані у книзі Perceptrons (1969).
Хоча принцип зворотного поширення був запропонований ще у 1970-х, лише в середині 1980-х він отримав широке застосування завдяки зростанню обчислювальної потужності. Алгоритм backpropagation швидко викликав другу хвилю досліджень нейронних мереж. З’явилася віра, що глибинні нейронні мережі можуть навчатися складним моделям, заклавши основу для глибинного навчання у майбутньому.
Молоді дослідники, як Янн Лекун (Франція) та Йошуа Бенджіо (Канада), приєдналися до руху нейронних мереж, успішно розробляючи моделі розпізнавання рукописного тексту наприкінці десятиліття.
Однак друга хвиля підйому ШІ тривала недовго. Наприкінці 1980-х галузь знову зіткнулася з кризою через недосягнення очікуваних результатів. Експертні системи, хоч і корисні у вузьких сферах, виявилися жорсткими, важко масштабованими і вимагали постійного ручного оновлення знань.
Багато великих проєктів експертних систем зазнали невдач, а ринок Lisp-машин обвалився через конкуренцію з дешевшими персональними комп’ютерами. У 1987 році Lisp-індустрія майже повністю збанкрутувала. Другий спад інвестицій у ШІ наприкінці 1980-х призвів до другої «зими ШІ». Термін «AI winter», введений у 1984 році, підтвердився, коли багато компаній ШІ закрилися у 1987–1988 роках. Знову галузь увійшла у фазу спаду, змушуючи дослідників коригувати очікування та стратегії.
Отже, 1980-ті стали періодом циклу підйому і падіння ШІ. Експертні системи вперше допомогли ШІ проникнути у промисловість, але також виявили обмеження підходу на основі фіксованих правил. Водночас цей період породив багато цінних ідей і інструментів: від нейронних алгоритмів до перших баз знань. Важливі уроки про уникнення надмірних очікувань стали фундаментом для більш обережного підходу у наступному десятилітті.
1990-ті: Повернення ШІ у практику
Після зими ШІ наприкінці 1980-х віра у ШІ поступово відновлювалася у 1990-х завдяки низці практичних проривів. Замість зосередження на сильному ШІ (загальному штучному інтелекті) з амбіціями, дослідники сфокусувалися на слабкому ШІ — застосуванні ШІ до конкретних задач, де почали з’являтися вражаючі результати. Багато напрямків, що відокремилися від ШІ раніше (як-от розпізнавання мови, комп’ютерний зір, пошукові алгоритми, бази знань), розвивалися самостійно і широко застосовувалися.
Важливою віхою стали практичні успіхи. У травні 1997 року комп’ютер Deep Blue від IBM переміг чемпіона світу з шахів Гаррі Каспарова у офіційному матчі. Це був перший випадок, коли система ШІ перемогла світового чемпіона у складній інтелектуальній грі, що викликало великий резонанс.
Перемога Deep Blue — заснована на алгоритмах пошуку brute-force у поєднанні з базою даних дебютів — продемонструвала величезну обчислювальну потужність і спеціалізовані техніки, які дозволяють машинам перевершувати людей у визначених завданнях. Ця подія ознаменувала вражаюче повернення ШІ у медіа і стимулювала новий інтерес до досліджень.
ШІ 1990-х також досяг успіхів у багатьох інших сферах. У іграх у 1994 році програма Chinook повністю розв’язала гру в шашки (draughts), змусивши світового чемпіона визнати неможливість перемогти машину.
У сфері розпізнавання мови з’явилися комерційні системи, як Dragon Dictate (1990), а до кінця десятиліття програмне забезпечення для розпізнавання голосу широко використовувалося на персональних комп’ютерах. Розпізнавання рукописного тексту також інтегрувалося у PDA (персональні цифрові помічники) з дедалі вищою точністю.
Застосування комп’ютерного зору почало впроваджуватися в промисловості — від контролю якості компонентів до систем безпеки. Навіть машинний переклад, який раніше викликав розчарування у 1960-х, зробив значний прогрес завдяки системі SYSTRAN, що підтримувала автоматичний переклад багатьох мов для Європейського Союзу.
Іншим важливим напрямом стали статистичне машинне навчання і нейронні мережі, які застосовувалися для аналізу великих обсягів даних. Кінець 1990-х ознаменувався вибухом Інтернету, що породив величезні цифрові масиви. Техніки data mining і машинного навчання (дерева рішень, нейронні мережі, приховані марковські моделі тощо) використовувалися для аналізу веб-даних, оптимізації пошукових систем і персоналізації контенту.
Термін «наука про дані» тоді ще не був поширеним, але фактично ШІ проник у програмні системи, покращуючи продуктивність на основі навчання з користувацьких даних (наприклад, фільтри спаму, рекомендації товарів у електронній комерції). Ці невеликі, але практичні успіхи допомогли відновити довіру до ШІ серед бізнесу та суспільства.
Можна сказати, що 1990-ті були періодом тихого, але впевненого проникнення ШІ у повсякденне життя. Замість гучних заяв про людський інтелект, розробники зосередилися на розв’язанні конкретних задач. В результаті ШІ став частиною багатьох технологічних продуктів кінця XX століття, часто непомітно для користувачів — від ігор і програмного забезпечення до електронних пристроїв. Цей період також заклав важливу основу для роботи з даними та алгоритмами, що дозволило ШІ вибухнути у наступному десятилітті.
2000-ні: Машинне навчання та ера великих даних
У XXI столітті ШІ зазнав потужного прориву завдяки Інтернету та епосі великих даних. 2000-ні відзначилися вибуховим зростанням персональних комп’ютерів, мережі Інтернет і сенсорних пристроїв, що створило величезні обсяги даних. Машинне навчання — особливо методи навчання з учителем — стало ключовим інструментом для використання цього «нафтового родовища» даних.
Гасло «data is the new oil» (дані — це нова нафта) стало популярним, адже чим більше даних, тим точніші алгоритми ШІ. Великі технологічні компанії почали будувати системи збору та навчання на користувацьких даних для покращення продуктів: Google — для розумнішого пошуку, Amazon — для рекомендацій покупок, Netflix — для підбору фільмів. ШІ поступово став «тихим мозком» цифрових платформ.
У 2006 році відбулася важлива подія: Фей-Фей Лі, професор Стенфордського університету, започаткувала проєкт ImageNet — величезну базу даних із понад 14 мільйонами зображень з детальними анотаціями. Представлена у 2009 році, ImageNet швидко стала стандартним набором даних для навчання та оцінки алгоритмів комп’ютерного зору, особливо для розпізнавання об’єктів на зображеннях.
ImageNet порівнюють із «допінгом», що стимулював дослідження глибинного навчання, надаючи достатньо даних для складних моделей. Щорічний конкурс ImageNet Challenge з 2010 року став важливою ареною, де команди змагалися у розробці найкращих алгоритмів розпізнавання зображень. Саме з цього майданчика у 2012 році почався історичний прорив ШІ (див. розділ про 2010-ті).
У 2000-х ШІ також досягнув багатьох важливих прикладних рубежів:
- У 2005 році автономний автомобіль Стенфорда (прізвисько «Stanley») виграв DARPA Grand Challenge — перегони автономних автомобілів у пустелі довжиною 212 км. Stanley подолав дистанцію за 6 годин 53 хвилини, відкривши нову еру автономних транспортних засобів і привернувши увагу інвесторів, як Google і Uber.
- З’явилися віртуальні помічники на телефонах: у 2008 році додаток Google Voice Search дозволив шукати інформацію голосом на iPhone; а у 2011 році з’явився Apple Siri — голосовий помічник, інтегрований у iPhone. Siri використовував технології розпізнавання мови, розуміння природної мови та веб-сервіси, ставши першим масовим застосуванням ШІ для широкої аудиторії.
- У 2011 році суперкомп’ютер IBM Watson переміг двох чемпіонів у телевізійному шоу Jeopardy! у США. Watson міг розуміти складні англомовні питання і шукати відповіді у величезних базах даних, демонструючи силу ШІ в обробці природної мови та пошуку інформації. Ця перемога довела, що комп’ютери можуть «розуміти» і розумно реагувати у широкій предметній області.
- Соціальні мережі та веб: Facebook запровадив функцію автоматичного розпізнавання облич і тегування фото (близько 2010 року), використовуючи машинне навчання на фото користувачів. YouTube і Google застосовували ШІ для фільтрації контенту та рекомендації відео. Технології машинного навчання непомітно працювали у фоновому режимі, допомагаючи оптимізувати користувацький досвід, часто без відома користувачів.
Отже, основним рушієм ШІ у 2000-х стали дані та застосування. Традиційні алгоритми машинного навчання, як регресія, SVM, дерева рішень тощо, масштабувалися і приносили реальні результати.
ШІ перейшов від дослідницької теми до активного впровадження в промисловість: «ШІ для бізнесу» став гарячою темою, з багатьма компаніями, що пропонували рішення для управління, фінансів, маркетингу тощо. У 2006 році з’явився термін «корпоративний ШІ» (enterprise AI), що підкреслював застосування ШІ для підвищення ефективності бізнесу та прийняття рішень.
Наприкінці 2000-х також почала формуватися революція глибинного навчання. Дослідження багатошарових нейронних мереж продовжували розвиватися. У 2009 році команда Ендрю Нга зі Стенфорда опублікувала роботу про використання GPU (графічних процесорів) для навчання нейронних мереж, що прискорило процес у 70 разів порівняно зі звичайними CPU.
Паралельна обчислювальна потужність GPU виявилася ідеальною для матричних обчислень нейронних мереж, відкривши шлях для тренування великих моделей глибинного навчання у 2010-х. Останні складові — великі дані, потужне обладнання, вдосконалені алгоритми — були готові, і залишалося лише чекати на вибухову революцію ШІ.
2010-ті: Революція глибинного навчання (Deep Learning)
Якщо обирати період, коли ШІ справді «злетів», то це 2010-ті. Завдяки фундаменту даних і обладнання з попереднього десятиліття, штучний інтелект увійшов у еру глибинного навчання — багатошарові нейронні мережі досягли значних успіхів і перевершили всі рекорди у різних завданнях ШІ. Мрія про машину, що «навчається як людський мозок», частково стала реальністю завдяки алгоритмам глибинного навчання.
Історичний прорив стався у 2012 році, коли команда Джеффрі Гінтона та його учнів (Алекс Крижевський, Ілля Сутскевер) взяла участь у конкурсі ImageNet Challenge. Їхня модель — відома як AlexNet — була 8-шаровою згортковою нейронною мережею, навченою на GPU. Результат: AlexNet досягла значно вищої точності, зменшивши вдвічі помилку розпізнавання зображень порівняно з другим місцем.
Ця приголомшлива перемога викликала сенсацію у спільноті комп’ютерного зору і започаткувала «бум глибинного навчання» у ШІ. Протягом наступних років більшість традиційних методів розпізнавання зображень були замінені моделями глибинного навчання.
Успіх AlexNet довів, що за наявності достатньої кількості даних (ImageNet) і обчислювальних ресурсів (GPU) глибинні нейронні мережі можуть значно перевершувати інші методи ШІ. Гінтон і колеги швидко перейшли до Google, а глибинне навчання стало найгарячішою темою у дослідженнях ШІ.
Глибинне навчання революціонізувало не лише комп’ютерний зір, а й обробку голосу, мови та багато інших сфер. У 2012 році Google Brain (проект Ендрю Нга та Джеффа Діна) здобув популярність, оголосивши про нейронну мережу, яка самостійно навчилася розпізнавати відео на YouTube і виявила поняття «кіт» без попередньої розмітки.
У період 2011–2014 з’явилися віртуальні помічники, як Siri, Google Now (2012) та Microsoft Cortana (2014), які використовували досягнення у розпізнаванні мови та розумінні природної мови. Наприклад, система розпізнавання мови Microsoft досягла людського рівня точності у 2017 році, значною мірою завдяки глибинним нейронним мережам для аудіомоделювання. У машинному перекладі у 2016 році Google Translate перейшов на архітектуру нейронного машинного перекладу (NMT), суттєво покращивши якість порівняно з традиційними статистичними моделями.
Ще однією важливою подією стала перемога ШІ у грі го — завдання, яке раніше вважалося надзвичайно складним. У березні 2016 року програма AlphaGo від DeepMind (Google) перемогла найкращого гравця світу Лі Седоля з рахунком 4-1. Го значно складніша за шахи, з величезною кількістю можливих ходів, що унеможливлює brute-force пошук. AlphaGo поєднувала глибинне навчання та алгоритм Monte Carlo Tree Search, навчаючись на мільйонах людських партій і самостійно граючи з собою.
Ця перемога порівнюється з матчем Deep Blue-Каспаров 1997 року і підтверджує, що ШІ може перевершувати людину у завданнях, що вимагають інтуїції та досвіду. Після AlphaGo DeepMind розробила AlphaGo Zero (2017), яка навчилася грати у го з нуля, без людських даних, і перемогла попередню версію з рахунком 100-0. Це демонструє потенціал підкріплювального навчання (reinforcement learning) у поєднанні з глибинним навчанням для досягнення надлюдських результатів.
У 2017 році у сфері обробки мови з’явилася революційна архітектура Transformer. Дослідники Google опублікували статтю «Attention Is All You Need», запропонувавши механізм self-attention, що дозволяє моделі вивчати залежності між словами у реченні без послідовного оброблення.
Transformer значно підвищив ефективність навчання великих мовних моделей (LLM) порівняно з попередніми послідовними архітектурами (RNN/LSTM). З цього часу з’явилася низка покращених мовних моделей на основі Transformer: BERT (Google, 2018) для розуміння контексту, а особливо GPT (Generative Pre-trained Transformer) від OpenAI, вперше представлена у 2018 році.
Ці моделі показали видатні результати у різних мовних завданнях — від класифікації та відповіді на запитання до генерації тексту. Transformer заклав основу для гонки у створенні величезних мовних моделей у 2020-х.
Наприкінці 2010-х з’явився генеративний ШІ (generative AI) — моделі, здатні самостійно створювати новий контент. У 2014 році Іен Гудфеллоу та колеги винайшли модель GAN (Generative Adversarial Network), що складається з двох нейронних мереж, які змагаються між собою для створення реалістичних фейкових даних.
GAN швидко стали відомими завдяки здатності створювати фотореалістичні зображення людей (deepfake). Паралельно розвивалися варіаційні автоенкодери (VAE) та моделі стилістичного переносу (style transfer), що дозволяли трансформувати зображення та відео у нових стилях.
У 2019 році OpenAI представила GPT-2 — модель генерації тексту з 1,5 млрд параметрів, що привернула увагу завдяки здатності створювати довгі, плавні тексти, схожі на людські. Очевидно, що ШІ тепер не лише класифікує чи прогнозує, а й переконливо генерує контент.
ШІ у 2010-х зробив стрибок, що перевищив очікування. Багато завдань, які раніше вважалися «неможливими» для машин, тепер виконуються на рівні або краще за людину: розпізнавання зображень, голосу, переклад, складні ігри тощо.
Ще важливіше, ШІ почав проникати у повсякденне життя: від камер смартфонів з автоматичним розпізнаванням облич, віртуальних помічників у розумних колонках (Alexa, Google Home) до рекомендацій у соціальних мережах — все це забезпечується ШІ. Це справді період вибухового зростання ШІ, який багато хто порівнює з «новою електроенергією» — базовою технологією, що змінює всі галузі.
2020-ті: Вибух генеративного ШІ та нові тенденції
Лише за кілька перших років 2020-х ШІ вибухнув із безпрецедентною швидкістю, головним чином завдяки підйому генеративного ШІ (Generative AI) та великих мовних моделей (LLM). Ці системи дозволили ШІ безпосередньо взаємодіяти з сотнями мільйонів користувачів, породжуючи хвилю творчих застосувань і викликаючи широкі суспільні дискусії про вплив ШІ.
У червні 2020 року OpenAI представила GPT-3 — величезну мовну модель з 175 мільярдами параметрів, що в 10 разів перевищувала розмір найбільшої попередньої моделі. GPT-3 вразила здатністю писати тексти, відповідати на запитання, складати вірші, писати код майже як людина, хоч і з помилками. Потужність GPT-3 показала, що масштаб моделі у поєднанні з величезними навчальними даними може забезпечити безпрецедентну плавність мовлення. Застосунки на основі GPT-3 швидко з’явилися — від маркетингових текстів і помічників з електронною поштою до підтримки програмування.
У листопаді 2022 року ШІ справді вийшов у публічний простір із запуском ChatGPT — інтерактивного чатбота від OpenAI на базі моделі GPT-3.5. Лише за 5 днів ChatGPT досяг 1 мільйона користувачів, а за 2 місяці перевищив 100 мільйонів, ставши найшвидше зростаючим споживчим застосунком в історії.
ChatGPT може плавно відповідати на численні запити — від написання текстів, розв’язання задач до консультацій — вражаючи користувачів своєю «розумністю» та гнучкістю. Популярність ChatGPT ознаменувала перше масове використання ШІ як інструменту творчості і започаткувала гонку ШІ між технологічними гігантами.
На початку 2023 року Microsoft інтегрувала GPT-4 (наступну модель OpenAI) у пошукову систему Bing, а Google запустив чатбот Bard на основі власної моделі LaMDA. Ця конкуренція сприяє тому, що генеративний ШІ стає дедалі доступнішим і швидко вдосконалюється.
Окрім тексту, генеративний ШІ у сфері зображень і звуку також зробив значний прорив. У 2022 році з’явилися моделі text-to-image, як DALL-E 2 (OpenAI), Midjourney та Stable Diffusion, що дозволяють користувачам вводити текстові описи і отримувати створені ШІ зображення. Якість картинок настільки реалістична і творча, що відкрила нову еру цифрової творчості.
Однак це також породило виклики щодо авторських прав і етики, оскільки ШІ навчається на роботах художників і створює подібні продукти. У звуковій сфері нові моделі text-to-speech можуть перетворювати текст у голос, що ідентичний реальній людині, навіть імітувати голоси знаменитостей, викликаючи занепокоєння щодо deepfake аудіо.
У 2023 році вперше почалися судові позови щодо авторських прав на дані для навчання ШІ — наприклад, Getty Images подала позов проти Stability AI (розробника Stable Diffusion) за використання мільйонів захищених зображень без дозволу. Це виявляє темну сторону вибуху ШІ: юридичні, етичні та соціальні проблеми виходять на передній план і потребують серйозної уваги.
У розпал ажіотажу 2023 року спільнота експертів висловила занепокоєння ризиками сильного ШІ. Понад 1000 діячів технологічної сфери (включно з Ілоном Маском, Стівом Возняком, дослідниками ШІ тощо) підписали відкритого листа з закликом тимчасово призупинити на 6 місяців навчання моделей ШІ більших за GPT-4, побоюючись неконтрольованого розвитку.
Того ж року піонери, як Джеффрі Гінтон (один із «батьків» глибинного навчання), попередили про ризики виходу ШІ з-під контролю. Європейська комісія швидко ухвалила Закон про ШІ (EU AI Act) — перший у світі комплексний регуляторний акт щодо штучного інтелекту, що набуде чинності у 2024 році. Закон забороняє системи ШІ з неприйнятними ризиками (наприклад, масове спостереження, соціальне оцінювання) і вимагає прозорості для загального ШІ.
У США багато штатів також ухвалили закони, що обмежують використання ШІ у чутливих сферах (найм, фінанси, виборчі кампанії тощо). Очевидно, що світ прискорено формує правову та етичну базу для ШІ, що є неминучим кроком через глибокий вплив технології.
Загалом, 2020-ті стали періодом вибухового розвитку та поширення ШІ. Нові інструменти ШІ, як ChatGPT, DALL-E, Midjourney тощо, стали звичними, допомагаючи мільйонам людей творити та працювати ефективніше новими способами.
Водночас гонка інвестицій у ШІ розгортається з шаленою швидкістю: за прогнозами, витрати бізнесу на генеративний ШІ перевищать 1 трильйон доларів у найближчі роки. ШІ також все глибше проникає у галузі: медицина (підтримка діагностики, пошук ліків), фінанси (аналіз ризиків, виявлення шахрайства), освіта (віртуальні викладачі, персоналізовані навчальні матеріали), транспорт (автономні автомобілі високого рівня), оборона (тактичне прийняття рішень) тощо.
Можна сказати, що ШІ сьогодні — це як електрика чи Інтернет — технологічна інфраструктура, яку хочуть використовувати всі підприємства та уряди. Багато експертів оптимістично вірять, що ШІ продовжить приносити прориви у продуктивності та якості життя за умови відповідального розвитку та управління.
Від 1950-х до сьогодні історія розвитку ШІ пройшла дивовижний шлях — повний амбіцій, розчарувань і нових злетів. Від невеликої конференції в Дартмуті 1956 року, що заклала основу галузі, ШІ двічі переживав «зими» через надмірні очікування, але після кожної з них відроджувався з новою силою завдяки науковим і технологічним проривам. Особливо за останні 15 років ШІ досяг значного прогресу, вийшовши з лабораторій у реальний світ і маючи глибокий вплив.
Нині ШІ присутній у майже всіх сферах і стає розумнішим і багатофункціональнішим. Водночас мета сильного ШІ (загального штучного інтелекту) — машина з гнучким інтелектом, як у людини — все ще попереду.
Сучасні моделі ШІ вражають, але залишаються обмеженими у межах навчальних завдань і іноді роблять дивні помилки (наприклад, ChatGPT може «галюцинувати» неправдиву інформацію з високою впевненістю). Виклики безпеки та етики також вимагають невідкладної уваги: як забезпечити, щоб ШІ розвивався контрольовано, прозоро і на благо людства.
Наступний етап розвитку ШІ обіцяє бути надзвичайно цікавим. З огляду на нинішній прогрес, ми можемо очікувати, що ШІ глибше проникне у життя: від лікарів-ШІ, що допомагають у медичному догляді, юристів-ШІ, які аналізують законодавство, до друзів-ШІ, що супроводжують у навчанні та спілкуванні.
Технології, як нейроморфні обчислення, досліджуються для імітації архітектури людського мозку, що може створити нове покоління ШІ, ефективніше і ближче до природного інтелекту. Хоча перспектива ШІ, що перевершує людський інтелект, викликає суперечки, очевидно, що ШІ продовжить еволюціонувати і глибоко формуватиме майбутнє людства.
Оглядаючи історію становлення та розвитку ШІ, ми бачимо історію настирливості та безперервної творчості людства. Від примітивних обчислювальних машин, що вміли лише рахувати, люди навчили машини грати в шахи, керувати автомобілями, розпізнавати світ і навіть творити мистецтво. Штучний інтелект вже є і буде надалі свідченням нашої здатності долати межі.
Головне, що ми маємо винести з історії — правильно ставити очікування і відповідально розвивати ШІ, щоб забезпечити максимальну користь для людства у майбутньому.