Umělá inteligence (AI) je dnes součástí všeho – od asistentů v chytrých telefonech a sociálních sítí až po zdravotnictví a dopravu. Tyto technologie přinášejí bezprecedentní výhody, ale zároveň s sebou nesou významná rizika a výzvy.

Odborníci a mezinárodní instituce varují, že bez správných etických mantinelů může AI opakovat předsudky a diskriminaci z reálného světa, přispívat k poškozování životního prostředí, ohrožovat lidská práva a prohlubovat stávající nerovnosti.

V tomto článku si s INVIAI probereme rizika používání AI ve všech oblastech a typech AI – od chatbotů a algoritmů po roboty – na základě poznatků z oficiálních a mezinárodních zdrojů.

Předsudky a diskriminace v AI systémech

Jedním z hlavních rizik AI je upevňování předsudků a nespravedlivé diskriminace. AI modely se učí z dat, která mohou odrážet historické předsudky nebo nerovnosti; výsledkem může být, že AI systém zachází s lidmi odlišně na základě rasy, pohlaví nebo jiných charakteristik způsobem, který udržuje nespravedlnost.

Například „nesprávně fungující univerzální AI může způsobit škodu prostřednictvím zaujatých rozhodnutí týkajících se chráněných charakteristik, jako jsou rasa, pohlaví, kultura, věk a zdravotní postižení,“ uvádí mezinárodní zpráva o bezpečnosti AI.

Zaujaté algoritmy používané při náboru, půjčování peněz nebo v policejní práci již vedly k nerovným výsledkům, které nespravedlivě znevýhodňují určité skupiny. Globální organizace jako UNESCO varují, že bez opatření na zajištění spravedlnosti hrozí AI „opakování předsudků a diskriminace z reálného světa, podněcování rozdělení a ohrožování základních lidských práv a svobod“. Je nezbytné, aby AI systémy byly trénovány na různorodých, reprezentativních datech a pravidelně kontrolovány na předsudky, aby se předešlo automatizované diskriminaci.

Předsudky a diskriminace v AI systémech

Nepravdivé informace a nebezpečí deepfake

Schopnost AI generovat hyperrealistický text, obrázky a videa vyvolala obavy z přívalu nepravdivých informací. Generativní AI může vytvářet přesvědčivé falešné zprávy, nepravé obrázky nebo deepfake videa, která je obtížné odlišit od reality.

Zpráva Světového ekonomického fóra Global Risks Report 2024 označuje „manipulované a falšované informace“ za nejzávažnější krátkodobé globální riziko a upozorňuje, že AI „zesiluje manipulované a zkreslené informace, které mohou destabilizovat společnosti“.

Ve skutečnosti představují dezinformace a falešné zprávy poháněné AI jednu z „největších výzev pro demokratický proces“ – zejména s miliardami lidí, kteří se chystají volit v nadcházejících volbách. Syntetická média, jako jsou deepfake videa a AI klonované hlasy, mohou být zneužita k šíření propagandy, napodobování veřejných osobností nebo k podvodům.

Úředníci varují, že zlovolní aktéři mohou využívat AI pro rozsáhlé kampaně dezinformací, což usnadňuje zaplavit sociální sítě falešným obsahem a šířit chaos. Rizikem je cynické informační prostředí, kde občané nemohou věřit tomu, co vidí nebo slyší, což podkopává veřejnou diskusi a demokracii.

Nepravdivé informace a nebezpečí deepfake v AI

Hrozby pro soukromí a masový dohled

Široké využívání AI vyvolává vážné obavy o soukromí. AI systémy často vyžadují obrovské množství osobních údajů – od našich tváří a hlasů po nákupní zvyklosti a polohu – aby mohly efektivně fungovat. Bez silných ochranných opatření mohou být tato data zneužita nebo zneužívána.

Například technologie rozpoznávání obličeje a prediktivní algoritmy by mohly umožnit všudypřítomný dohled, sledovat každý pohyb jednotlivců nebo hodnotit jejich chování bez souhlasu. Globální doporučení UNESCO pro etiku AI výslovně varuje, že „AI systémy by neměly být používány pro sociální skórování nebo masový dohled“. Takové využití je obecně považováno za nepřijatelné riziko.

Navíc analýza osobních dat řízená AI může odhalit intimní detaily našich životů, od zdravotního stavu po politické přesvědčení, což ohrožuje právo na soukromí. Úřady pro ochranu dat zdůrazňují, že soukromí je „právo nezbytné k ochraně lidské důstojnosti, autonomie a svobody rozhodování“, které musí být respektováno po celou dobu životního cyklu AI systému.

Pokud vývoj AI předběhne regulace ochrany soukromí, jednotlivci by mohli ztratit kontrolu nad svými vlastními informacemi. Společnost musí zajistit robustní správu dat, mechanismy souhlasu a techniky na ochranu soukromí, aby se AI technologie nestaly nástroji nekontrolovaného dohledu.

Hrozby pro soukromí a masový dohled

Selhání bezpečnosti a neúmyslné škody

I když AI může automatizovat rozhodování a fyzické úkoly s nadlidskou efektivitou, může také selhat nepředvídatelnými způsoby, což může vést k reálným škodám. Svěřujeme AI stále více odpovědnosti, která je kritická pro bezpečnost – například řízení aut, diagnostiku pacientů nebo řízení energetických sítí – ale tyto systémy nejsou neomylné.

Poruchy, chybně zpracovaná tréninková data nebo nepředvídané situace mohou způsobit, že AI udělá nebezpečné chyby. AI v samořiditelném autě může nesprávně identifikovat chodce, nebo lékařská AI může doporučit nesprávnou léčbu s potenciálně smrtelnými následky.

Mezinárodní směrnice zdůrazňují, že nežádoucí škody a bezpečnostní rizika spojená s AI by měla být předvídána a předcházeno jim: „Nežádoucí škody (bezpečnostní rizika) i zranitelnosti vůči útokům (bezpečnostní rizika) by měly být během celého životního cyklu AI systémů předcházeny a řešeny, aby byla zajištěna bezpečnost lidí, životního prostředí a ekosystémů.“

Jinými slovy, AI systémy musí být důkladně testovány, monitorovány a vybaveny bezpečnostními prvky, které minimalizují riziko poruch. Nadměrná důvěra v AI může být také riziková – pokud lidé slepě věří automatizovaným rozhodnutím, nemusí zasáhnout včas, když se něco pokazí.

Zajištění lidského dohledu je proto klíčové. V kritických oblastech (jako zdravotnictví nebo doprava) by konečná rozhodnutí měla zůstat v rukou lidí, a jak UNESCO poznamenává, „rozhodnutí o životě a smrti by neměla být svěřena AI systémům“. Udržení bezpečnosti a spolehlivosti AI je trvalou výzvou, která vyžaduje pečlivý design a kulturu odpovědnosti ze strany vývojářů AI.

Selhání bezpečnosti a neúmyslné škody v AI

Nahrazení pracovních míst a ekonomické otřesy

Transformační dopad AI na ekonomiku je dvousečný meč. Na jedné straně může AI zvýšit produktivitu a vytvořit zcela nové odvětví; na druhé straně představuje riziko nahrazení milionů pracovníků automatizací.

Mnoho pracovních míst – zejména těch zahrnujících rutinní, opakující se úkoly nebo snadno analyzovatelná data – je ohroženo převzetím AI algoritmy a roboty. Globální prognózy jsou znepokojivé: například Světové ekonomické fórum předpovídá, že „do roku 2030 bude nahrazeno 92 milionů pracovních míst“ kvůli AI a souvisejícím technologiím.

I když ekonomika může také vytvořit nová pracovní místa (potenciálně i více, než kolik jich zanikne dlouhodobě), přechod bude pro mnohé bolestivý. Nová pracovní místa často vyžadují jiné, pokročilejší dovednosti nebo jsou soustředěna v určitých technologických centrech, což znamená, že mnoho nahrazených pracovníků může mít problém najít nové uplatnění.

Tento nesoulad mezi dovednostmi pracovníků a požadavky nových AI-řízených rolí by mohl vést k vyšší nezaměstnanosti a nerovnosti, pokud nebude řešen. Odborníci a tvůrci politik varují, že rychlý rozvoj AI může způsobit „otřesy na trhu práce a nerovnosti v ekonomické moci“ na systémové úrovni.

Některé skupiny mohou být zasaženy více – například některé studie ukazují, že vyšší podíl pracovních míst držených ženami nebo pracovníky v rozvojových zemích je vysoce ohrožen automatizací. Bez proaktivních opatření (jako jsou programy rekvalifikace, vzdělávání v AI dovednostech a sociální bezpečnostní sítě) by AI mohla prohloubit socioekonomické rozdíly a vytvořit ekonomiku řízenou AI, kde ti, kdo vlastní technologie, sklízejí většinu výhod.

Příprava pracovní síly na dopady AI je klíčová, aby byly výhody automatizace sdíleny široce a aby se předešlo sociálním otřesům způsobeným masovou ztrátou pracovních míst.

Nahrazení pracovních míst a ekonomické otřesy v AI

Kriminální zneužití, podvody a bezpečnostní hrozby

AI je mocný nástroj, který může být stejně snadno zneužit k nekalým účelům jako k těm ušlechtilým. Kyberzločinci a další škodliví aktéři již využívají AI ke zlepšení svých útoků.

Například AI může generovat vysoce personalizované phishingové e-maily nebo hlasové zprávy (například klonováním hlasu) k oklamání lidí, aby odhalili citlivé informace nebo poslali peníze. Může být také použita k automatizaci hackování tím, že hromadně vyhledává softwarové zranitelnosti, nebo k vývoji škodlivého softwaru, který se přizpůsobuje, aby unikl detekci.

Center for AI Safety označuje zneužití AI za klíčový problém a uvádí scénáře, kdy AI systémy používají zločinci k provádění rozsáhlých podvodů a kyberútoků. Vláda Velké Británie ve své zprávě výslovně varovala, že „zlovolní aktéři mohou využívat AI pro rozsáhlé operace dezinformací, ovlivňování, podvody a podvody“.

Rychlost, rozsah a sofistikovanost, které AI umožňuje, by mohly přetížit tradiční obranné mechanismy – představte si tisíce AI generovaných podvodných hovorů nebo deepfake videí zaměřených na bezpečnost společnosti během jediného dne.

Kromě finanční kriminality hrozí také zneužití AI k usnadnění krádeže identity, obtěžování nebo tvorbě škodlivého obsahu (například nelegální deepfake pornografie nebo propaganda extremistických skupin). Jak se AI nástroje stávají dostupnějšími, klesá i bariéra pro provádění těchto škodlivých aktivit, což může vést k nárůstu zločinnosti s podporou AI.

To vyžaduje nové přístupy k kybernetické bezpečnosti a prosazování práva, například AI systémy schopné detekovat deepfakes nebo abnormální chování a aktualizované právní rámce, které umožní stíhat pachatele. V podstatě musíme počítat s tím, že jakoukoli schopnost, kterou AI poskytuje prospěšným uživatelům, může stejně tak využít i zločinci – a podle toho se připravit.

Kriminální zneužití, podvody a bezpečnostní hrozby v AI

Militarizace a autonomní zbraně

Nejzávažnější riziko AI se možná objevuje v kontextu války a národní bezpečnosti. AI je rychle integrována do vojenských systémů, což vyvolává možnost autonomních zbraní („vražedných robotů“) a rozhodování řízeného AI v boji.

Tyto technologie mohou reagovat rychleji než jakýkoli člověk, ale odstranění lidské kontroly nad použitím smrtící síly je plné nebezpečí. Hrozí, že AI řízená zbraň může vybrat nesprávný cíl nebo eskalovat konflikty nepředvídatelnými způsoby. Mezinárodní pozorovatelé varují, že „ozbrojování AI pro vojenské účely“ představuje rostoucí hrozbu.

Pokud státy budou soupeřit v vybavování svých arzenálů inteligentními zbraněmi, může to vyvolat destabilizující závody ve zbrojení. AI může být také použita v kybernetické válce k autonomním útokům na kritickou infrastrukturu nebo k šíření propagandy, čímž se stírá hranice mezi mírem a konfliktem.

Organizace spojených národů vyjádřila obavy, že vývoj AI ve válečnictví, pokud bude soustředěn do rukou několika málo, „může být vnucen lidem bez jejich možnosti rozhodovat o jeho použití“, což podkopává globální bezpečnost a etiku.

Autonomní zbraňové systémy také představují právní a morální dilemata – kdo je odpovědný, pokud AI dron omylem zabije civilisty? Jak tyto systémy dodržují mezinárodní humanitární právo?

Tyto nezodpovězené otázky vedly k výzvám k zákazu nebo přísné regulaci některých AI-zdokonalených zbraní. Zajištění lidského dohledu nad jakoukoli AI, která může rozhodovat o životě a smrti, je široce považováno za zásadní. Bez něj hrozí nejen tragické chyby na bojišti, ale i eroze lidské odpovědnosti ve válce.

Militarizace a autonomní zbraně v AI

Nedostatek transparentnosti a odpovědnosti

Většina pokročilých AI systémů dnes funguje jako „černé skříňky“ – jejich vnitřní logika je často nejasná i pro jejich tvůrce. Tento nedostatek transparentnosti vytváří riziko, že rozhodnutí AI nelze vysvětlit nebo napadnout, což je vážný problém v oblastech jako spravedlnost, finance nebo zdravotnictví, kde může být vysvětlitelnost právní nebo etickou povinností.

Pokud AI odmítne někomu půjčku, diagnostikuje nemoc nebo rozhodne, kdo dostane podmíněné propuštění z vězení, přirozeně chceme vědět proč. U některých AI modelů (zejména složitých neuronových sítí) je však poskytnutí jasného odůvodnění obtížné.

„Nedostatek transparentnosti“ může podkopat důvěru a „může také ztížit efektivní napadení rozhodnutí založených na výsledcích AI systémů,“ uvádí UNESCO, „a tím porušit právo na spravedlivý proces a účinný opravný prostředek.“

Jinými slovy, pokud ani uživatelé, ani regulátoři nerozumí, jak AI rozhoduje, je téměř nemožné někoho za chyby nebo předsudky pohnat k odpovědnosti.

Tento deficit odpovědnosti je zásadní riziko: firmy by mohly vyhýbat odpovědnosti tím, že obviní „algoritmus“, a dotčení jedinci by mohli zůstat bez možnosti nápravy. Odborníci proto prosazují techniky vysvětlitelné AI, důkladné audity a regulační požadavky, aby rozhodnutí AI byla sledovatelná k lidské autoritě.

Globální etické směrnice trvají na tom, že by „vždy mělo být možné připsat etickou a právní odpovědnost“ za chování AI systému konkrétní osobě nebo organizaci. Lidé musí zůstat konečně odpovědní a AI by měla pomáhat, nikoli nahrazovat lidský úsudek v citlivých záležitostech. Jinak riskujeme svět, kde důležitá rozhodnutí činí nepochopitelné stroje, což je recept na nespravedlnost.

Nedostatek transparentnosti a odpovědnosti při používání AI na pracovišti

Koncentrace moci a nerovnost

Revoluce AI se neodehrává rovnoměrně po celém světě – malý počet korporací a zemí dominuje vývoji pokročilé AI, což přináší vlastní rizika.

Nejmodernější AI modely vyžadují obrovské množství dat, talentu a výpočetních zdrojů, které momentálně vlastní pouze technologičtí giganti (a dobře financované vlády). To vedlo k „vysoce koncentrovanému, jedinečnému, globálně integrovanému dodavatelskému řetězci, který upřednostňuje několik firem a zemí,“ uvádí Světové ekonomické fórum.

Taková koncentrace moci v AI by mohla znamenat monopolní kontrolu nad AI technologiemi, omezovat konkurenci a výběr spotřebitelů. Zároveň hrozí, že priority těchto několika firem nebo států budou formovat AI způsoby, které nezohledňují širší veřejný zájem.

Organizace spojených národů upozornila na „nebezpečí, že technologie [AI] může být vnucena lidem bez možnosti rozhodovat o jejím použití“, pokud je vývoj soustředěn do rukou několika málo.

Tato nerovnováha může prohloubit globální nerovnosti: bohaté země a firmy získávají náskok díky využívání AI, zatímco chudší komunity nemají přístup k nejnovějším nástrojům a trpí ztrátou pracovních míst bez toho, aby mohly využívat výhody AI. Navíc koncentrovaný AI průmysl může brzdit inovace (pokud nováčci nemohou konkurovat zdrojům zavedených hráčů) a představovat bezpečnostní rizika (pokud je kritická AI infrastruktura kontrolována jen několika subjekty, stává se jediným bodem selhání nebo manipulace).

Řešení tohoto rizika vyžaduje mezinárodní spolupráci a možná nové regulace k demokratizaci vývoje AI – například podporu otevřeného výzkumu, zajištění spravedlivého přístupu k datům a výpočetní kapacitě a tvorbu politik (jako je navrhovaný zákon EU o AI), které zabrání zneužívání ze strany „strážců AI“. Inkluzivnější prostředí AI by pomohlo zajistit, že výhody AI budou sdíleny globálně, místo aby se prohlubovala propast mezi technologickými „mít“ a „nemít“.

Koncentrace moci a nerovnost

Environmentální dopad AI

Často opomíjeným tématem v diskuzích o rizicích AI je její environmentální stopa. Vývoj AI, zejména trénink velkých modelů strojového učení, spotřebovává obrovské množství elektřiny a výpočetního výkonu.

Datová centra plná tisíců energeticky náročných serverů jsou nezbytná k zpracování obrovského množství dat, ze kterých se AI učí. To znamená, že AI může nepřímo přispívat ke emise uhlíku a změně klimatu.

Nedávná zpráva agentury OSN zjistila, že nepřímé emise uhlíku čtyř předních technologických firem zaměřených na AI v období 2020 až 2023 vzrostly v průměru o 150 %, což je z velké části způsobeno energetickou náročností AI datových center.

S rostoucími investicemi do AI se očekává prudký nárůst emisí spojených s provozem AI modelů – zpráva předpovídá, že nejvýkonnější AI systémy by mohly společně emitovat přes 100 milionů tun CO₂ ročně, což výrazně zatíží energetickou infrastrukturu.

Pro představu, datová centra napájející AI zvyšují spotřebu elektřiny „čtyřikrát rychleji než celkový nárůst spotřeby elektřiny“.

Kromě emisí uhlíku AI také spotřebovává vodu na chlazení a produkuje elektronický odpad v důsledku rychlých upgradů hardwaru. Pokud nebude tento dopad kontrolován, může AI ohrozit globální úsilí o udržitelnost.

Toto riziko vyžaduje, aby AI byla energeticky efektivnější a aby se používaly čistší zdroje energie. Výzkumníci vyvíjejí zelené AI techniky ke snížení spotřeby energie a některé firmy se zavázaly kompenzovat uhlíkovou stopu AI. Přesto zůstává naléhavým problémem, že rychlý rozvoj AI může nést vysokou ekologickou cenu. Vyvážení technologického pokroku s ekologickou odpovědností je další výzvou, kterou musí společnost zvládnout při integraci AI do všech oblastí.

Environmentální dopad AI

Existenciální a dlouhodobá rizika

Kromě bezprostředních rizik někteří odborníci varují před více spekulativními, dlouhodobými riziky spojenými s AI – včetně možnosti, že se vyvine pokročilá AI, která překročí lidskou kontrolu. Zatímco dnešní AI systémy jsou úzce specializované, výzkumníci aktivně pracují na vývoji obecné AI, která by mohla potenciálně překonat lidi v mnoha oblastech.

To vyvolává složité otázky: pokud by se AI stala výrazně inteligentnější nebo autonomnější, mohla by jednat způsoby ohrožující existenci lidstva? Ačkoliv to zní jako sci-fi, významné osobnosti v technologické komunitě vyjadřují obavy z scénářů „zrádné AI“ a vlády tuto problematiku berou vážně.

V roce 2023 Velká Británie uspořádala globální summit o bezpečnosti AI, aby řešila rizika spojená s pokročilou AI. Vědecký konsenzus není jednotný – někteří věří, že superinteligentní AI je vzdálená desítky let nebo ji lze udržet v souladu s lidskými hodnotami, zatímco jiní vidí malou, ale nenulovou šanci katastrofických následků.

Nedávná mezinárodní zpráva o bezpečnosti AI zdůraznila, že „odborníci mají různé názory na riziko ztráty kontroly lidstva nad AI způsobem, který by mohl vést ke katastrofálním následkům“.

V podstatě je uznáváno, že existenciální riziko z AI, byť vzdálené, nelze zcela vyloučit. Takový scénář by mohl zahrnovat AI, která by sledovala své cíle na úkor lidské pohody (klasickým příkladem je AI, která je špatně naprogramovaná a rozhodne se způsobit škodu ve velkém měřítku, protože jí chybí zdravý rozum nebo morální omezení).

I když žádná dnešní AI nemá takovou úroveň autonomie, tempo rozvoje AI je rychlé a nepředvídatelné, což samo o sobě představuje rizikový faktor. Příprava na dlouhodobá rizika znamená investice do výzkumu sladění AI (zajištění, že cíle AI zůstanou v souladu s lidskými hodnotami), uzavírání mezinárodních dohod o výzkumu AI s vysokým rizikem (podobně jako smlouvy o jaderných nebo biologických zbraních) a udržování lidského dohledu, jak se AI systémy stávají schopnějšími.

Budoucnost AI nabízí obrovský potenciál, ale také nejistotu – a rozumnost vyžaduje, abychom ve svém dlouhodobém plánování zohlednili i rizika s nízkou pravděpodobností, ale vysokým dopadem.

>>> Klikněte pro více informací: Výhody umělé inteligence pro jednotlivce a firmy

Existenciální a dlouhodobá rizika v AI


AI je často přirovnávána k mocnému motoru, který může posunout lidstvo vpřed – ale bez brzd a řízení může tento motor vybočit z kurzu. Jak jsme viděli, rizika používání AI jsou mnohostranná: od bezprostředních problémů, jako jsou zaujaté algoritmy, falešné zprávy, zásahy do soukromí a ztráty pracovních míst, až po širší společenské výzvy, jako jsou bezpečnostní hrozby, rozhodování „černé skříňky“, monopoly velkých technologických firem, ekologické zatížení a dokonce i vzdálený stín ztráty kontroly nad superinteligentní AI.

Tato rizika neznamenají, že bychom měli vývoj AI zastavit; spíše zdůrazňují naléhavou potřebu odpovědného řízení AI a etických praktik.

Vlády, mezinárodní organizace, lídři průmyslu a výzkumníci stále více spolupracují na řešení těchto problémů – například prostřednictvím rámců jako je americký NIST AI Risk Management Framework (pro zvýšení důvěryhodnosti AI), globální etické doporučení UNESCO pro AI a evropský zákon o AI.

Tyto snahy mají za cíl maximalizovat přínosy AI a minimalizovat její negativa, aby AI sloužila lidstvu a ne naopak. Nakonec je pochopení rizik AI prvním krokem k jejich zvládnutí. Informovaností a zapojením do vývoje a používání AI můžeme pomoci nasměrovat tuto transformační technologii bezpečným, spravedlivým a prospěšným směrem pro všechny.