Umělá inteligence (AI) se dnes stala běžnou součástí moderního života a pronikla do všech oblastí od podnikání po zdravotnictví. Málokdo však tuší, že historie vývoje AI začala již v polovině 20. století a prošla mnoha vzestupy a pády, než dosáhla současného průlomového úspěchu.

Tento článek INVIAI poskytne detailní pohled na historii vzniku a vývoje AI, od prvotních myšlenek, přes období tzv. „zimy AI“ plné obtíží, až po revoluci hlubokého učení a explozivní rozmach generativní AI v 21. století.

50. léta: Začátky umělé inteligence

Padesátá léta jsou považována za oficiální začátek oboru AI. V roce 1950 matematik Alan Turing publikoval článek „Computing Machinery and Intelligence“, kde navrhl slavný test na posouzení schopnosti strojového myšlení – později známý jako Turingův test. Tento milník položil základní teoretický rámec pro AI s myšlenkou, že počítače mohou „myslet“ jako lidé.

V roce 1956 vznikl termín „Artificial Intelligence“ (umělá inteligence). V létě téhož roku počítačový vědec John McCarthy (Dartmouth College) spolu s kolegy jako Marvin Minsky, Nathaniel Rochester (IBM) a Claude Shannon uspořádal historickou konferenci na Dartmouth College.

McCarthy navrhl termín „umělá inteligence“ (AI) pro tuto konferenci, která je často považována za založení oboru AI. Na konferenci odvážní vědci prohlásili, že „každý aspekt učení nebo inteligence může být simulován strojem“, čímž stanovili ambiciózní cíle pro nový obor.

Konec 50. let přinesl první úspěchy v AI. V roce 1951 byly napsány první AI programy pro počítač Ferranti Mark I – pozoruhodné byly programy na hraní dámy od Christophera Stracheyho a šachu od Dietricha Prinze, což znamenalo první případ, kdy počítač hrál inteligentní hru.

V roce 1955 Arthur Samuel z IBM vyvinul program na hraní dámy, který měl schopnost učit se z vlastních zkušeností, čímž vznikl první systém machine learning (strojové učení). Současně Allen Newell, Herbert Simon a kolegové napsali program Logic Theorist (1956), který dokázal automaticky dokazovat matematické věty, což ukázalo, že stroje mohou provádět logické uvažování.

Kromě algoritmů vznikly v 50. letech také nástroje a programovací jazyky speciálně pro AI. V roce 1958 John McCarthy vynalezl jazyk Lisp, programovací jazyk navržený přímo pro AI, který se rychle stal populárním mezi vývojáři AI. Ve stejném roce psycholog Frank Rosenblatt představil Perceptron – první model umělé neuronové sítě schopný učit se z dat. Perceptron je považován za základ moderních neurálních sítí.

V roce 1959 Arthur Samuel poprvé použil termín „machine learning“ (strojové učení) v průlomovém článku, kde popsal, jak lze počítač naprogramovat tak, aby se učil a zlepšoval ve hře dámy lépe než jeho tvůrce. Tyto objevy vyvolaly silný optimismus, kdy průkopníci věřili, že během několika desetiletí dosáhnou stroje inteligence na úrovni člověka.

50. léta – Začátky umělé inteligence

60. léta: První pokroky

V 60. letech AI pokračovala ve vývoji s mnoha významnými projekty a objevy. Byla založena AI laboratoř na prestižních univerzitách (MIT, Stanford, Carnegie Mellon...), což přilákalo pozornost a financování výzkumu. Výpočetní výkon počítačů se zvyšoval, což umožnilo testovat složitější AI koncepty než v předchozím desetiletí.

Významným úspěchem bylo vytvoření prvního chatbotu. V roce 1966 Joseph Weizenbaum z MIT vytvořil ELIZU, program simulující konverzaci s uživatelem ve stylu psychoterapeuta. ELIZA byla naprogramována jednoduše (na základě rozpoznávání klíčových slov a vzorových odpovědí), ale překvapivě mnoho lidí si myslelo, že ELIZA skutečně „rozumí“ a má emoce. Úspěch ELIZY otevřel cestu moderním chatbotům a zároveň vyvolal otázky o lidské tendenci přisuzovat strojům emoce.

Současně se objevily první inteligentní roboty. V letech 1966–1972 Stanford Research Institute (SRI) vyvinul Shakeyhoprvního mobilního robota s vlastním uvědoměním a plánováním akcí, který neplnil jen jednotlivé příkazy. Shakey byl vybaven senzory a kamerami pro autonomní pohyb v prostředí a dokázal analyzovat úkoly jako hledání cesty, posouvání překážek či zdolávání svahů. Šlo o první systém integrující strojové vidění, zpracování přirozeného jazyka a plánování v robotice, čímž položil základy robotické AI.

American Association of Artificial Intelligence (AAAI) byla také založena v tomto období (předchůdce byla konference IJCAI 1969, AAAI od roku 1980), což ukazuje rostoucí komunitu AI výzkumníků.

V 60. letech se také rozvíjely expertní systémy a základní algoritmy. V roce 1965 Edward Feigenbaum a kolegové vyvinuli DENDRALprvní expertní systém na světě, navržený pro pomoc chemikům analyzovat molekulární struktury z experimentálních dat simulací znalostí a myšlení odborníků. Úspěch DENDRAL ukázal, že počítače mohou řešit složité specializované problémy, což položilo základy pro explozivní rozvoj expertních systémů v 80. letech.

Dále byl v roce 1972 vyvinut programovací jazyk Prolog (specializovaný na logickou AI) na Univerzitě v Marseille, který otevřel cestu k AI založené na logice a relačních pravidlech. Dalším milníkem bylo v roce 1969 vydání knihy „Perceptrons“ od Marvina Minskyho a Seymoura Paperta, která ukázala matematická omezení jednovrstvých perceptronů (například neschopnost řešit XOR problém), což vedlo k vážným pochybnostem o neuronových sítích.

Mnoho investorů ztratilo důvěru v učení neuronových sítí a výzkum neuronových sítí začal upadat koncem 60. let. Šlo o první známku „ochlazení“ nadšení pro AI po více než desetiletí optimismu.

AI v 60. letech

70. léta: Výzvy a první „zima AI“

V 70. letech čelila AI realitě a výzvám: Mnoho velkých očekávání z předchozí dekády nebylo splněno kvůli omezením výpočetního výkonu, dat a vědeckých znalostí. Výsledkem bylo prudké snížení důvěry a financování AI v polovině 70. let – období později nazývané první „zimou AI“.

V roce 1973 Sir James Lighthill přilil olej do ohně zveřejněním zprávy „Artificial Intelligence: A General Survey“, která kriticky hodnotila pokrok AI výzkumu. Zpráva Lighthill konstatovala, že AI výzkumníci „slibují příliš mnoho, ale dosahují příliš málo“, zejména kritizovala neschopnost počítačů porozumět jazyku a vidění podle očekávání.

Tato zpráva vedla k výraznému omezení financování AI ze strany britské vlády. V USA agentury jako DARPA přesunuly investice do praktičtějších projektů. Výsledkem bylo, že od poloviny 70. let do začátku 80. let byl obor AI téměř zamrzlý, s málo průlomovými projekty a nedostatkem financí. Toto období je známé jako „zima AI“ – termín zavedený v roce 1984 pro dlouhé období stagnace AI výzkumu.

Přesto 70. léta přinesla několik pozitivních momentů ve výzkumu AI. Expertní systémy se dál rozvíjely v akademickém prostředí, například MYCIN (1974) – expertní systém pro lékařskou diagnostiku infekcí krve vyvinutý Tedem Shortliffem na Stanfordu, který používal pravidla pro doporučení léčby s vysokou přesností, což dokázalo praktickou hodnotu expertních systémů v úzce vymezených oblastech.

Dále se Prolog (představený v roce 1972) začal používat pro úlohy zpracování jazyka a logiky, stávající se důležitým nástrojem pro logickou AI. V robotice v roce 1979 tým na Stanfordu úspěšně vyvinul Stanford Cart – první autonomní robotické vozidlo schopné pohybovat se v místnosti plné překážek bez dálkového ovládání. Tento úspěch položil základy pro pozdější výzkum autonomních vozidel.

Celkově koncem 70. let AI výzkum upadl do útlumu. Mnoho AI vědců muselo přesměrovat svou práci do příbuzných oblastí jako strojové učení, statistika, robotika a počítačové vidění, aby mohli pokračovat.

AI už nebyla „jasnou hvězdou“ jako v předchozích desetiletích, ale spíše úzce specializovaným oborem s málo výraznými pokroky. Toto období připomnělo výzkumníkům, že umělá inteligence je mnohem složitější, než se původně předpokládalo, a vyžaduje zásadně nové přístupy místo pouhého modelování logiky.

AI v 70. letech

80. léta: Expertní systémy – vzestup a pád

Začátkem 80. let AI zažila období oživení – někdy nazývané „renesance AI“. Tento impuls přinesl komerční úspěch expertních systémů a obnovený zájem vlád i podniků. Počítače byly výkonnější a komunita věřila, že lze postupně realizovat AI koncepty v úzce vymezených oblastech.

Velkým hnacím motorem byly komerční expertní systémy. V roce 1981 společnost Digital Equipment Corporation uvedla XCON (Expert Configuration) – expertní systém pomáhající konfigurovat počítačové systémy, který ušetřil firmě desítky milionů dolarů. Úspěch XCON podnítil vlnu rozvoje expertních systémů v podnikové sféře pro podporu rozhodování. Mnoho technologických firem investovalo do vývoje shellů expertních systémů, které umožňovaly firmám přizpůsobit si vlastní systémy.

Jazyk Lisp se také dostal z laboratoří díky strojům Lisp (Lisp machine) – specializovanému hardwaru optimalizovanému pro AI programy. Na počátku 80. let vznikla řada startupů zaměřených na Lisp stroje (Symbolics, Lisp Machines Inc.), což vyvolalo investiční horečku a označilo „éru Lisp strojů“ v AI.

Velké vlády také výrazně investovaly do AI v této době. V roce 1982 Japonsko zahájilo Projekt počítačů páté generace s rozpočtem 850 milionů USD na vývoj inteligentních počítačů využívajících logiku a Prolog. Podobně USA (DARPA) zvýšily podporu AI výzkumu v rámci technologické konkurence s Japonskem. Projekty se zaměřovaly na expertní systémy, zpracování přirozeného jazyka a znalostní báze s cílem vytvořit pokročilé inteligentní počítače.

Mezitím umělé neuronové sítě tiše ožívaly. V roce 1986 výzkumník Geoffrey Hinton a kolegové publikovali algoritmus Backpropagation (zpětné šíření chyby) – efektivní metodu tréninku vícevrtvých neuronových sítí, která vyřešila hlavní omezení uvedená v knize Perceptrons (1969).

Princip zpětného šíření byl sice navržen již v 70. letech, ale až v polovině 80. let jej umožnila plně využít rostoucí výpočetní síla. Backpropagation rychle vyvolal druhou vlnu výzkumu neuronových sítí. Vznikla víra, že hluboké neuronové sítě mohou modelovat složité vzory, což předznamenalo pozdější hluboké učení (deep learning).

Mladí výzkumníci jako Yann LeCun (Francie) a Yoshua Bengio (Kanada) se zapojili do této vlny, úspěšně vyvíjeli modely pro rozpoznávání rukopisu ke konci dekády.

Nicméně druhé období rozmachu AI netrvalo dlouho. Koncem 80. let AI opět čelila krizi kvůli nedostatečným výsledkům. Expertní systémy, ač užitečné v úzkých aplikacích, měly nedostatky: byly příliš rigidní, těžko rozšiřitelné a vyžadovaly ruční aktualizaci znalostí.

Mnoho velkých projektů expertních systémů selhalo a trh s Lisp stroji zkolaboval kvůli konkurenci levnějších osobních počítačů. V roce 1987 téměř zkrachoval Lisp průmysl. Druhá vlna investic do AI byla na konci 80. let výrazně omezena, což vedlo k druhé „zimě AI“. Termín „AI winter“ z roku 1984 se naplnil, když mnoho AI firem zkrachovalo v letech 1987–1988. AI tak vstoupila do období útlumu, kdy výzkumníci museli upravit své očekávání a strategie.

Stručně řečeno, 80. léta znamenala cyklus rozmachu a útlumu AI. Expertní systémy pomohly AI proniknout do průmyslu poprvé, ale zároveň ukázaly limity přístupu založeného na pevných pravidlech. Přesto toto období přineslo mnoho cenných myšlenek a nástrojů – od neurálních algoritmů po první znalostní báze. Důležité lekce o přehnaných očekáváních položily základy pro opatrnější přístup v následující dekádě.

AI v 80. letech

90. léta: Návrat AI do praxe

Po zimě AI koncem 80. let důvěra v AI postupně rostla v 90. letech díky řadě praktických pokroků. Místo zaměření na silnou AI (všeobecnou umělou inteligenci) se výzkumníci soustředili na slabou AI – aplikaci AI technik na konkrétní úlohy, kde začaly přicházet působivé výsledky. Mnoho oblastí, které se od AI odštěpily (například rozpoznávání řeči, počítačové vidění, vyhledávací algoritmy, znalostní báze), se nyní samostatně rozvíjelo a široce aplikovalo.

Významným milníkem byl v květnu 1997 počítač Deep Blue od IBM, který porazil světového šachového mistra Garryho Kasparova v oficiálním zápase. Šlo o první případ, kdy AI systém porazil světového šampiona ve složité intelektuální hře, což vyvolalo velký ohlas.

Vítězství Deep Blue – založené na brutální síle vyhledávacích algoritmů kombinovaných s databází zahájení – ukázalo obrovský výpočetní výkon a specializované techniky, které mohou stroje předčit lidi v přesně definovaných úlohách. Tento úspěch znamenal velkolepý návrat AI do povědomí veřejnosti a povzbudil další výzkum po letech stagnace.

AI v 90. letech také dosáhla pokroku v mnoha dalších oblastech. Ve hrách v roce 1994 program Chinook vyřešil hru dáma na úrovni neporazitelného šampiona, který musel uznat, že nemůže počítač porazit.

V oblasti rozpoznávání řeči se začaly objevovat komerční systémy jako Dragon Dictate (1990) a ke konci dekády se software pro rozpoznávání hlasu začal široce používat na osobních počítačích. Rozpoznávání rukopisu bylo integrováno do PDA (osobních digitálních asistentů) s rostoucí přesností.

Aplikace počítačového vidění se začaly zavádět v průmyslu, od kontroly součástek po bezpečnostní systémy. Dokonce i strojový překlad – oblast, která v 60. letech AI zklamala – zaznamenal významný pokrok díky systému SYSTRAN, který podporoval automatický překlad mnoha jazyků pro Evropskou unii.

Dalším důležitým směrem bylo strojové učení a neuronové sítě aplikované na velká datová soubory. Internet na konci 90. let přinesl obrovské množství digitálních dat. Techniky jako data mining a strojové algoritmy (rozhodovací stromy, neuronové sítě, skryté Markovovy modely) se používaly k analýze webových dat, optimalizaci vyhledávačů a personalizaci obsahu.

Termín „data science“ ještě nebyl běžný, ale AI už pronikala do softwarových systémů pro zlepšení výkonu na základě učení z uživatelských dat (například spamové filtry, doporučení produktů v e-commerce). Tyto malé, ale praktické úspěchy pomohly AI získat důvěru podniků a společnosti.

Lze říci, že 90. léta byla obdobím tichého, ale pevného pronikání AI do života. Místo velkých slibů o lidské inteligenci se vývojáři soustředili na řešení konkrétních úloh. Výsledkem bylo, že AI byla přítomna v mnoha technologických produktech konce 20. století, často bez povšimnutí uživatelů – od her přes software až po elektroniku. Toto období také položilo důležité základy v oblasti dat a algoritmů, které umožnily AI připravit se na explozi v následující dekádě.

AI v 90. letech

2000s: Strojové učení a éra velkých dat

Vstupem do 21. století AI výrazně posílila díky internetu a éře velkých dat. 2000s zaznamenaly explozi osobních počítačů, internetu a senzorů, které generovaly obrovské množství dat. Strojové učení – zejména metody učení s učitelem – se stalo hlavním nástrojem pro využití tohoto „datového bohatství“.

Slogan „data jsou nová ropa“ se stal populárním, protože čím více dat, tím přesnější AI algoritmy. Velké technologické firmy začaly budovat systémy sběru a učení z uživatelských dat pro zlepšení produktů: Google s inteligentnějším vyhledáváním, Amazon s doporučením produktů podle chování, Netflix s algoritmy pro výběr filmů. AI se stala „tichým mozkem“ digitálních platforem.

Rok 2006 znamenal důležitou událost: Fei-Fei Li, profesorka na Stanfordu, zahájila projekt ImageNet – obrovskou databázi více než 14 milionů obrázků s podrobnými štítky. Představený v roce 2009, ImageNet se rychle stal standardním datasetem pro trénink a hodnocení algoritmů počítačového vidění, zejména pro rozpoznávání objektů na obrázcích.

ImageNet byl přirovnáván k „dopingové látce“ pro výzkum hlubokého učení, protože poskytl dostatek dat pro trénink složitých hlubokých modelů. Soutěž ImageNet Challenge od roku 2010 se stala důležitým bojištěm, kde týmy soupeřily o nejlepší algoritmy rozpoznávání obrazu. Právě zde se v roce 2012 odehrál historický zlom (viz dekáda 2010).

V této dekádě AI také dosáhla řady významných aplikačních milníků:

  • Rok 2005 – autonomní vozidlo Stanford (přezdívané „Stanley“) vyhrálo DARPA Grand Challenge – soutěž autonomních vozidel v poušti na 212 km. Stanley dokončil trať za 6 hodin 53 minut, čímž otevřel novou éru autonomních vozidel a přilákal pozornost a investice od Google, Uber a dalších.
  • Virtuální asistenti na telefonech se objevili: v roce 2008 aplikace Google Voice Search umožnila hlasové vyhledávání na iPhonu; vrcholem byl Apple Siri (2011) – hlasový asistent integrovaný do iPhonu. Siri využívala technologii rozpoznávání řeči, porozumění přirozenému jazyku a webové služby, což znamenalo první masové nasazení AI pro širokou veřejnost.
  • Rok 2011 – superpočítač IBM Watson porazil dva šampiony v televizní soutěži Jeopardy! ve Spojených státech. Watson dokázal rozumět složitým anglickým otázkám a vyhledávat odpovědi v obrovském množství dat, což ukázalo sílu AI v zpracování přirozeného jazyka a vyhledávání informací. Tento úspěch dokázal, že počítače mohou „rozumět“ a inteligentně reagovat v širokém spektru znalostí.
  • Sociální sítě a web: Facebook představil funkci automatického rozpoznávání obličejů a označování fotografií (kolem roku 2010), využívající strojové učení na datech uživatelů. YouTube a Google používaly AI k filtrování obsahu a doporučování videí. Strojové učení tiše fungovalo v pozadí platforem a optimalizovalo uživatelský zážitek, často bez vědomí uživatelů.

Lze říci, že hlavním motorem AI v 2000s byla data a aplikace. Tradiční strojové algoritmy jako regrese, SVM, rozhodovací stromy byly nasazeny ve velkém měřítku a přinesly praktické výsledky.

AI se z výzkumného tématu stala průmyslovým odvětvím: „AI pro podniky“ se stala horkým tématem s řadou firem nabízejících AI řešení v oblasti řízení, financí, marketingu a dalších. V roce 2006 se objevil termín „enterprise AI“, zdůrazňující využití AI pro zvýšení obchodní efektivity a rozhodování.

Na konci dekády se také začala rodit revoluce hlubokého učení. Výzkum vícevrtvých neuronových sítí pokračoval v rozkvětu. V roce 2009 tým Andrew Nga na Stanfordu oznámil použití GPU (grafických procesorů) pro trénink neuronových sítí, což bylo až 70krát rychlejší než běžné CPU.

Paralelní výpočetní výkon GPU byl ideální pro maticové operace neuronových sítí a otevřel cestu k tréninku velkých deep learning modelů v následující dekádě. Poslední dílky skládanky – velká data, výkonný hardware a vylepšené algoritmy – byly připraveny, čekaly jen na správný okamžik pro explozi nové AI revoluce.

AI v 2000s

2010s: Revoluce hlubokého učení (Deep Learning)

Pokud bychom měli vybrat období, kdy AI skutečně „vzlétnula“, byla by to právě 2010s. Díky základům dat a hardwaru z předchozí dekády umělá inteligence vstoupila do éry hlubokého učení (deep learning) – vícevrtvých neuronových sítí, které dosahovaly průlomových výsledků a překonávaly všechny rekordy v řadě AI úloh. Sen o strojích, které „se učí jako lidský mozek“, se začal naplňovat díky deep learning algoritmům.

Historický zlom nastal v roce 2012, kdy tým Geoffrey Hintona a jeho studentů (Alex Krizhevsky, Ilya Sutskever) soutěžil v ImageNet Challenge. Jejich model – známý jako AlexNet – byl 8vrstvou konvoluční neuronovou sítí trénovanou na GPU. Výsledkem bylo výrazně lepší rozpoznávání obrazu, s poloviční chybovostí oproti druhému nejlepšímu týmu.

Toto drtivé vítězství šokovalo komunitu počítačového vidění a znamenalo začátek „hysterie deep learningu“ v AI. V následujících letech většina tradičních metod rozpoznávání obrazu byla nahrazena deep learning modely.

Úspěch AlexNet potvrdil, že s dostatkem dat (ImageNet) a výpočetní síly (GPU) hluboké neuronové sítě mohou překonat jiné AI techniky. Hinton a jeho tým byli rychle přizváni do Googlu a deep learning se stal nejžhavějším tématem AI výzkumu.

Deep learning nezměnil jen počítačové vidění, ale rozšířil se i do zpracování řeči, jazyka a dalších oblastí. V roce 2012 projekt Google Brain (Andrew Ng a Jeff Dean) vzbudil pozornost, když neuronová síť sama objevila koncept „kočky“ při sledování videí na YouTube bez předchozího označení.

Mezi lety 2011–2014 vznikly také virtuální asistenti jako Siri, Google Now (2012) a Microsoft Cortana (2014), využívající pokroky v rozpoznávání řeči a porozumění přirozenému jazyku. Například Microsoftův systém dosáhl v roce 2017 přesnosti srovnatelné s člověkem díky hlubokým neuronovým sítím pro zvukové modelování. V oblasti překladů Google Translate v roce 2016 přešel na neurální strojový překlad (NMT), což výrazně zlepšilo kvalitu oproti statistickým modelům.

Další významnou událostí bylo vítězství AI ve hře Go, což bylo považováno za velmi vzdálený cíl. V březnu 2016 program AlphaGo od DeepMind (Google) porazil nejlepšího světového hráče Go Lee Sedola 4:1. Go je mnohem složitější než šachy, s obrovským počtem možných tahů, které nelze prohledávat brute-force. AlphaGo kombinoval deep learning a algoritmus Monte Carlo Tree Search, učil se z milionů lidských her a hrál proti sobě.

Toto vítězství bylo srovnatelné s Deep Blue-Kasparovem 1997 a potvrdilo, že AI může překonat člověka v oblastech vyžadujících intuici a zkušenost. Po AlphaGo DeepMind vyvinul AlphaGo Zero (2017), který se naučil hrát Go zcela sám bez lidských dat a porazil předchozí verzi 100:0. To ukázalo potenciál posilovaného učení (reinforcement learning) v kombinaci s deep learningem pro dosažení superlidské výkonnosti.

V roce 2017 přišel průlom v oblasti zpracování jazyka: architektura Transformer. Výzkumníci Googlu představili model Transformer v článku „Attention Is All You Need“, který navrhl mechanismus self-attention umožňující modelovat vztahy mezi slovy ve větě bez potřeby sekvenčního zpracování.

Transformer umožnil efektivnější trénink velkých jazykových modelů (LLM) než předchozí sekvenční architektury (RNN/LSTM). Od té doby vznikla řada vylepšených jazykových modelů založených na Transformeru: BERT (Google, 2018) pro porozumění kontextu a zejména GPT (Generative Pre-trained Transformer) od OpenAI, poprvé představený v roce 2018.

Tyto modely dosahují vynikajících výsledků v úlohách od klasifikace přes odpovídání na otázky až po generování textu. Transformer položil základy pro závod ve vývoji obřích jazykových modelů v 20. letech.

Na konci 10. let se také objevila generativní AI – modely schopné vytvářet nový obsah. V roce 2014 Ian Goodfellow a kolegové představili GAN (Generative Adversarial Network), skládající se ze dvou soupeřících neuronových sítí, které generují realistická falešná data.

GAN se rychle proslavily schopností vytvářet realistické falešné portréty lidí (deepfake). Současně byly vyvinuty variace autoencoderů (VAE) a style transfer, které umožňují transformovat obrázky a videa do nových stylů.

V roce 2019 OpenAI představila GPT-2 – model pro generování textu s 1,5 miliardou parametrů, který vzbudil pozornost díky schopnosti vytvářet plynulé a lidsky znějící texty. AI tak už nebyla jen o klasifikaci a predikci, ale i o přesvědčivém tvůrčím obsahu.

AI v 10. letech zaznamenala skokové pokroky překonávající očekávání. Mnohé úkoly, které byly dříve považovány za „neřešitelné“ pro stroje, AI zvládla na úrovni nebo nad úrovní člověka: rozpoznávání obrazu, řeči, překlady, hraní složitých her...

Co je důležitější, AI začala pronikat do každodenního života: od smartphonů s automatickým rozpoznáváním obličejů, přes virtuální asistenty v chytrých reproduktorech (Alexa, Google Home), až po doporučení obsahu na sociálních sítích. To bylo skutečné období exploze AI, které mnozí přirovnávali k „nové elektřině“ – základní technologii měnící všechny obory.

AI v 10. letech

20. léta: Exploze generativní AI a nové trendy

Během prvních let 20. let AI explodovala nebývalým tempem, zejména díky vzestupu generativní AI a velkých jazykových modelů (LLM). Tyto systémy umožnily AI přímo oslovit stovky milionů uživatelů a vyvolaly vlnu kreativních aplikací i rozsáhlé společenské debaty o dopadech AI.

V červnu 2020 OpenAI představila GPT-3 – obří jazykový model s 175 miliardami parametrů, desetkrát větší než předchozí největší modely. GPT-3 ohromil schopností psát texty, odpovídat na otázky, skládat básně, psát kód… téměř jako člověk, i když občas chyboval. Síla GPT-3 ukázala, že velikost modelu a rozsáhlá tréninková data mohou přinést dosud nevídanou plynulost generovaného jazyka. Aplikace založené na GPT-3 rychle vznikaly, od marketingového obsahu přes e-mailové asistenty až po programátorské nástroje.

V listopadu 2022 AI skutečně vstoupila do veřejného povědomí s uvedením ChatGPT – interaktivního chatbota vyvinutého OpenAI na bázi modelu GPT-3.5. Za 5 dní dosáhl ChatGPT 1 milionu uživatelů a během 2 měsíců překonal 100 milionů uživatelů, čímž se stal nejrychleji rostoucí spotřebitelskou aplikací v historii.

ChatGPT dokáže plynule odpovídat na širokou škálu otázek, od psaní textů přes řešení úloh až po poradenství, což uživatele ohromuje jeho „inteligencí“ a flexibilitou. Popularita ChatGPT znamená první masové využití AI jako nástroje pro tvorbu obsahu a zároveň zahájila závod AI mezi technologickými giganty.

Na začátku roku 2023 Microsoft integroval GPT-4 (následníka OpenAI) do vyhledávače Bing, zatímco Google uvedl chatbota Bard založeného na vlastním modelu LaMDA. Tato konkurence pomáhá generativní AI technologiím pronikat stále širšímu publiku a rychle se zlepšovat.

Kromě textu generativní AI v oblasti obrázků a zvuku také výrazně pokročila. V roce 2022 modely text-to-image jako DALL-E 2 (OpenAI), Midjourney a Stable Diffusion umožnily uživatelům zadávat textové popisy a získávat realistické a kreativní obrázky generované AI. Kvalita těchto obrázků byla tak vysoká, že otevřela novou éru digitální tvorby obsahu.

Nicméně to také přineslo výzvy ohledně autorských práv a etiky, protože AI se učí z děl umělců a vytváří podobné produkty. V oblasti zvuku nové generace text-to-speech modelů dokáží převádět text na hlas téměř nerozeznatelný od lidského, dokonce napodobovat hlasy slavných, což vyvolává obavy z deepfake hlasů.

V roce 2023 se poprvé objevily soudní spory o autorská práva na tréninková data AI – například Getty Images žalovala Stability AI (vývojáře Stable Diffusion) za použití milionů licencovaných obrázků bez svolení. To ukazuje stinnou stránku AI exploze: právní, etické a společenské otázky začínají nabývat na důležitosti a vyžadují vážnou pozornost.

V době AI horečky v roce 2023 odborná komunita vyjádřila obavy z rizik silné AI. Více než 1 000 osobností z technologického sektoru (včetně Elona Muska, Stevea Wozniaka a AI výzkumníků) podepsalo otevřený dopis vyzývající k šestiměsíčnímu moratoriu na trénink AI modelů větších než GPT-4, kvůli obavám z nekontrolovatelného vývoje.

Ve stejném roce i průkopníci jako Geoffrey Hinton (jeden z „otců“ deep learningu) varovali před riziky AI mimo lidskou kontrolu. Evropská unie rychle dokončila AI zákon (EU AI Act) – první komplexní regulaci umělé inteligence na světě, plánovanou k zavedení od roku 2024. Tento zákon zakazuje AI systémy považované za „nepřijatelné riziko“ (např. masový dohled, sociální skórování) a požaduje transparentnost u obecné AI.

V USA několik států přijalo zákony omezující použití AI v citlivých oblastech (nábor, finance, volební kampaně atd.). Je zřejmé, že svět spěchá s vytvořením právního a etického rámce pro AI, což je nezbytné vzhledem k rozsáhlému dopadu technologie.

Celkově 20. léta zaznamenávají explozivní rozvoj AI jak technicky, tak v popularitě. Nové AI nástroje jako ChatGPT, DALL-E, Midjourney a další se staly běžnými, pomáhají milionům lidí tvořit a pracovat efektivněji novými způsoby.

Zároveň investiční závod do AI nabírá na obrátkách: podle odhadů výdaje firem na generativní AI překročí v příštích letech 1 miliardu USD. AI také stále více proniká do oblastí jako zdravotnictví (podpora diagnostiky, hledání nových léků), finance (analýza rizik, odhalování podvodů), vzdělávání (virtuální asistenti, personalizovaný obsah), doprava (autonomní vozidla), obrana (taktická rozhodnutí) a další.

Lze říci, že AI je dnes jako elektřina nebo internet – technologická infrastruktura, kterou chtějí využívat všechny firmy i vlády. Mnozí odborníci jsou optimističtí, že AI přinese další skoky v produktivitě a kvalitě života, pokud bude vyvíjena a řízena správným směrem.

AI v 20. letech


Od 50. let až do současnosti historie vývoje AI prošla úžasnou cestou – plnou ambicí, zklamání a opětovného vzestupu. Od malé konference Dartmouth 1956, která položila základy oboru, AI dvakrát zažila „zimy“ kvůli přehnaným očekáváním, ale po každé se silně vzchopila díky vědeckým a technologickým průlomům. Zejména za posledních 15 let AI udělala obrovský pokrok, skutečně opustila laboratoře a začala mít hluboký dopad na svět.

Dnes AI proniká do téměř všech oblastí a je inteligentnější a všestrannější. Přesto cíl silné AI (všeobecné umělé inteligence) – stroje s flexibilní inteligencí jako člověk – je stále před námi.

Současné AI modely jsou sice působivé, ale stále specializované na úkoly, na které byly trénovány a občas dělají chyby (například ChatGPT může „halucinovat“ nesprávné informace s vysokou jistotou). Výzvy bezpečnosti a etiky jsou naléhavé: jak zajistit, aby AI byla kontrolovatelná, transparentní a sloužila společnému dobru lidstva.

Budoucnost AI slibuje být velmi zajímavá. S aktuálním tempem vývoje můžeme očekávat, že AI pronikne ještě hlouběji do života: od AI lékařů pomáhajících s péčí o zdraví, přes AI právníky vyhledávající právní předpisy, až po AI přátele doprovázející nás ve studiu a osobních rozhovorech.

Technologie jako neuromorfní výpočty se zkoumají pro napodobení lidského mozku a mohou přinést novou generaci AI, která bude efektivnější a blíže přirozené inteligenci. Ačkoliv překonání lidské inteligence AI zůstává kontroverzní, je jasné, že AI bude pokračovat ve vývoji a zásadně formovat budoucnost lidstva.

Když se ohlédneme za historií vzniku a vývoje AI, vidíme příběh o vytrvalosti a neustálé kreativitě lidstva. Od prvních počítačů, které uměly jen počítat, jsme naučili stroje hrát šachy, řídit auta, rozpoznávat svět a dokonce tvořit umění. Umělá inteligence je a bude důkazem naší schopnosti překonávat vlastní limity.

Důležité je, že jsme se z historie naučili správně nastavovat očekávání a rozvíjet AI odpovědně, aby AI přinášela maximální užitek lidstvu v dalších etapách svého vývoje.