Umělá inteligence (UI) označuje počítačové systémy, které napodobují lidskou inteligenci – například programy, které dokážou rozpoznávat obrázky, rozumět jazyku nebo přijímat rozhodnutí. V každodenním životě pohání UI nástroje jako hlasoví asistenti v chytrých telefonech, doporučovací systémy na sociálních sítích a dokonce i pokročilé chatboty, které píší texty.

UI má potenciál výrazně zlepšit mnoho oblastí, ale zároveň vyvolává řadu obav.

Takže, je umělá inteligence nebezpečná? Tento článek se zaměří na obě strany: skutečné přínosy UI a rizika, na která odborníci upozorňují.

Skutečné přínosy umělé inteligence

Obrázek: Přátelské zobrazení robotů a člověka pracujících společně symbolizuje, jak UI pomáhá lidem. UI je již integrována do mnoha užitečných aplikací.

Například UNESCO uvádí, že UI „vytvořila mnoho příležitostí“ po celém světě – od rychlejších lékařských diagnóz přes lepší propojení na sociálních sítích až po automatizaci nudných pracovních úkolů.

Evropská unie podobně zdůrazňuje, že „důvěryhodná UI může přinést mnoho výhod“, jako jsou lepší zdravotní péčebezpečnější dopravaefektivnější průmysl a využití energie. Ve zdravotnictví Světová zdravotnická organizace uvádí, že UI se používá pro diagnostiku, vývoj léků a reakci na epidemie, a vyzývá země, aby tyto inovace zpřístupnily všem.

Ekonomové dokonce přirovnávají rychlé šíření UI k minulým technologickým revolucím.

Například americká vláda zdůrazňuje, že „UI má mimořádný potenciál jak pro přísliby, tak pro rizika,“ což znamená, že bychom měli využít její sílu k řešení problémů jako změna klimatu nebo nemoci, a zároveň být obezřetní vůči rizikům.

Hlavní přínosy UI zahrnují:

  • Zlepšení zdravotní péče: Systémy UI dokážou analyzovat rentgeny, magnetické rezonance a data pacientů rychleji než lidé, což pomáhá včas odhalit nemoci a přizpůsobit léčbu. Například zobrazování s podporou UI může odhalit nádory, které by lékaři mohli přehlédnout.
  • Vyšší efektivita: Automatizované procesy ve výrobě, kancelářích a službách zvyšují produktivitu. Jak uvádí EU, automatizace řízená UI vede k „efektivnější výrobě“ a dokonce i chytřejším energetickým sítím.
    Roboti a software zvládají opakující se úkoly, takže lidé se mohou soustředit na kreativní nebo složitější práci.
  • Bezpečnější doprava a služby: Technologie autonomních vozidel a dopravní řízení pomocí UI usilují o snížení nehod a dopravních zácp. Inteligentní UI může také zlepšit systémy varování před katastrofami a optimalizovat logistiku, což činí cestování a přepravu bezpečnějšími.
  • Vědecká a environmentální pomoc: Výzkumníci využívají UI k analýze klimatických modelů a genetických dat. To pomáhá řešit velké problémy, jako je změna klimatu: UNESCO uvádí, že i malé změny v návrhu UI mohou výrazně snížit její spotřebu energie, což ji činí udržitelnější jako nástroj pro klima.
  • Vzdělávání a přístupnost: Učitelé s podporou UI mohou přizpůsobit výuku každému studentovi a nástroje pro rozpoznávání hlasu nebo překlad pomáhají lidem s postižením. Britannica uvádí, že UI dokonce „pomáhá marginalizovaným skupinám tím, že nabízí přístupnost“ (například čtecí asistenti pro zrakově postižené).

Tyto příklady ukazují, že UI není jen vědecká fikce – již dnes přináší skutečnou hodnotu.

Skutečné přínosy umělé inteligence

Potenciální rizika a nebezpečí umělé inteligence

Obrázek: Pouliční umění se slovem „Robot“ varuje před neznámými dopady UI. Přestože UI slibuje mnoho, mnoho odborníků varuje, že může být nebezpečná, pokud je zneužita nebo ponechána bez kontroly. Hlavním problémem je předpojatost a diskriminace. Protože se UI učí z existujících dat, může převzít lidské předsudky.

UNESCO varuje, že bez přísné etiky UI „hrozí reprodukováním předsudků a diskriminace z reálného světa, což podporuje rozdělení a ohrožuje základní lidská práva a svobody“. Studie ukázaly, že rozpoznávání obličejů často chybně identifikuje ženy nebo osoby jiné barvy pleti a algoritmy pro výběr zaměstnanců mohou upřednostňovat určitá pohlaví.

Britannica rovněž uvádí, že UI může „škodit rasovým menšinám tím, že opakuje a zhoršuje rasismus“.

Další nebezpečí zahrnují:

  • Soukromí a sledování: Systémy UI často vyžadují obrovské množství osobních dat (příspěvky na sociálních sítích, zdravotní záznamy atd.). To zvyšuje riziko zneužití. Pokud vlády nebo firmy používají UI k analýze vašich dat bez souhlasu, může to vést k invazivnímu sledování.

    Britannica varuje před „nebezpečnými riziky pro soukromí“ spojenými s UI. Například kontroverzní použití UI nazývané hodnocení sociálního kreditu – kde jsou občané hodnoceni algoritmy – bylo v EU zakázáno jako „nepřijatelné“.
    Dokonce i známé chatboty vyvolaly obavy: v roce 2023 Itálie dočasně zablokovala ChatGPT kvůli problémům s ochranou dat.

  • Dezinformace a deepfakes: UI může vytvářet realistické falešné texty, obrázky nebo videa. To usnadňuje tvorbu deepfakes – falešných videí celebrit nebo nepravdivých zpráv.

    Britannica upozorňuje, že UI může šířit „politizované, dokonce nebezpečné dezinformace“. Odborníci varovali, že takové falešné materiály by mohly být použity k manipulaci voleb nebo veřejného mínění.

    V jednom případě se virálně šířily AI-generované obrázky světových vůdců s falešnými titulky zpráv, než byly vyvráceny. Vědci upozorňují, že bez regulace by se dezinformace řízené UI mohly zhoršovat (například falešné projevy nebo upravené obrázky, které současné zákony nedokážou efektivně kontrolovat).

  • Ztráta pracovních míst a ekonomické otřesy: Automatizací úkolů UI promění pracovní prostředí. Mezinárodní měnový fond uvádí, že přibližně 40 % pracovních míst na světě (a 60 % v rozvinutých zemích) je „ohroženo“ automatizací UI. Nejde jen o práci ve výrobě, ale i o střední třídu, například účetnictví nebo psaní.
    Zatímco UI může zvýšit produktivitu (a dlouhodobě zvednout mzdy), mnoho pracovníků bude potřebovat nové vzdělání nebo může krátkodobě čelit nezaměstnanosti.
    Technologičtí lídři toto riziko uznávají: i generální ředitel Microsoftu řekl, že UI může náhle nahradit kvalifikované odborníky.

  • Bezpečnost a zneužití: Stejně jako každá technologie, i UI může být použita ke škodlivým účelům. Kyberzločinci již využívají UI k vytváření přesvědčivých phishingových e-mailů nebo k hledání zranitelností systémů.

    Vojenské kruhy se obávají autonomních zbraní: dronů nebo robotů, které vybírají cíle bez lidského schválení.
    Čerstvá zpráva od výzkumníků UI výslovně varuje, že chybí instituce, které by zabránily „bezohledným... aktérům, kteří by mohli nasadit nebo vyvíjet schopnosti nebezpečným způsobem“, například autonomní útočné systémy.

    Jinými slovy, systém UI s fyzickou kontrolou (například zbraň) by mohl být obzvlášť nebezpečný, pokud by se vymkl kontrole nebo byl naprogramován škodlivě.

  • Ztráta lidské kontroly: Někteří myslitelé upozorňují, že pokud UI překročí dnešní úroveň, může jednat nepředvídatelně. Současná UI není vědomá ani sebeuvědomělá, ale budoucí obecná umělá inteligence (AGI) by mohla sledovat cíle, které nejsou v souladu s lidskými hodnotami.

    Přední vědci UI nedávno varovali, že „vysoce výkonné obecné systémy UI“ se mohou v blízké budoucnosti objevit, pokud se na to nepřipravíme.

    Nobelista Geoffrey Hinton a další odborníci dokonce popsali zvýšené riziko, že UI by mohla lidstvu ublížit, pokud nebude správně sladěna s našimi potřebami. Ačkoliv je toto riziko nejisté, vedlo k významným výzvám k opatrnosti.

  • Energetický a environmentální dopad: Trénování a provoz velkých modelů UI spotřebovává hodně elektřiny. UNESCO uvádí, že roční spotřeba energie generativní UI nyní odpovídá malé africké zemi – a rychle roste.

    To by mohlo zhoršit změnu klimatu, pokud nepoužijeme ekologičtější metody.

    Dobrou zprávou je, že výzkumníci nacházejí řešení: jedna studie UNESCO ukazuje, že použití menších, efektivních modelů pro konkrétní úkoly může snížit spotřebu energie UI o 90 % bez ztráty přesnosti.

Shrnuto, skutečná nebezpečí UI dnes většinou vyplývají z toho, jak ji lidé používají. Pokud je UI pečlivě řízena, její přínosy (zdraví, pohodlí, bezpečnost) jsou obrovské.

Pokud však zůstane bez kontroly, může umožnit předsudky, kriminalitu a nehody.

Společným jmenovatelem těchto nebezpečí je nedostatek kontroly nebo dohledu: nástroje UI jsou mocné a rychlé, takže chyby nebo zneužití se mohou dít ve velkém, pokud nezasáhneme.

Potenciální rizika a nebezpečí umělé inteligence

Co říkají odborníci a představitelé

Vzhledem k těmto otázkám se mnoho lídrů a výzkumníků veřejně vyjádřilo. V posledních letech vznikl široký konsenzus mezi odborníky na UI.

V roce 2024 skupina 25 předních vědců UI (z Oxfordu, Berkeley, držitelé Turingovy ceny atd.) vydala společné prohlášení vyzývající k naléhavým opatřením.

Varovali vlády světa, aby se připravily: „pokud podceníme rizika UI, důsledky mohou být katastrofální,“ a vyzvali k financování výzkumu bezpečnosti UI a vytvoření regulačních orgánů pro dohled nad mocnou UI.

Zdůraznili, že vývoj UI dosud probíhal „s bezpečností jako až druhotným hlediskem“ a že momentálně chybí instituce, které by zabránily nekontrolovaným aplikacím.

Technologičtí lídři tuto opatrnost sdílejí. Generální ředitel OpenAI Sam Altman – jehož společnost vytvořila ChatGPT – řekl New York Times, že vývoj pokročilé UI je jako „Manhattanský projekt“ digitální éry.

Přiznal, že stejné nástroje, které dokážou psát eseje nebo kódovat, by také mohly způsobit „zneužití, vážné nehody a společenské otřesy“, pokud nebudou správně řízeny.

Koncem roku 2023 více než 1 000 odborníků na UI (včetně Elona Muska, spoluzakladatele Applu Stevea Wozniaka a mnoha výzkumníků UI) podepsalo otevřený dopis vyzývající k pozastavení tréninku nových generací modelů UI.

Varovali, že jsme v „nekontrolovatelném závodě“ o vytvoření mocnější UI, kterou ani její tvůrci „nedokážou pochopit, předvídat ani spolehlivě ovládat“.

Ve veřejných diskuzích odborníci zdůrazňují konkrétní rizika. Generální ředitel Google DeepMind Demis Hassabis tvrdí, že největší hrozbou není nezaměstnanost, ale zneužití: kyberzločinec nebo zlomyslný stát, který použije UI ke škodě společnosti.

Upozornil, že velmi brzy by UI mohla dosáhnout nebo překonat lidskou inteligenci a „špatný aktér by mohl tyto technologie zneužít k nebezpečným účelům“.

Jinými slovy, i když zvládneme ztrátu pracovních míst, musíme zabránit, aby nástroje UI skončily v nesprávných rukou.

Vládní a mezinárodní instituce si toho jsou vědomy. Bílý dům (USA) vydal v roce 2023 výkonný příkaz, který uvádí, že UI „má mimořádný potenciál jak pro přísliby, tak pro rizika“ a vyzývá k „odpovědnému používání UI“ prostřednictvím celospolečenského úsilí o zmírnění jejích významných rizik.

Evropská unie přijala první světový zákon o UI (účinný od roku 2024), který zakazuje nebezpečné praktiky jako vládní sociální hodnocení a vyžaduje přísné testy pro vysoce rizikovou UI (ve zdravotnictví, vymáhání práva atd.).

UNESCO (agentura OSN pro vzdělávání a kulturu) zveřejnila globální etické doporučení pro UI, která vyzývají k férovosti, transparentnosti a ochraně lidských práv.

Dokonce i organizace zabývající se vědou a politikou, jako NIST (Národní institut standardů USA), vydaly rámec řízení rizik UI, který pomáhá firmám budovat důvěryhodnou UI.

Všechny tyto hlasy se shodují na jednom: UI se sama nezastaví. Musíme vyvinout ochranná opatření. To zahrnuje technická řešení (audity předsudků, testování bezpečnosti) i nové zákony či dozorčí orgány.

Například zákonodárci po celém světě zvažují rady pro bezpečnost UI, podobné těm pro jadernou technologii.

Cílem není zastavit inovace, ale zajistit, aby probíhaly podle pečlivých pravidel.

Co říkají odborníci a představitelé

Ochranná opatření a regulace

Naštěstí je již mnoho řešení v provozu. Klíčovým konceptem je „bezpečnost UI již při návrhu“. Firmy stále častěji začleňují etická pravidla do vývoje UI.

Například laboratoře UI testují modely na předsudky před jejich uvedením a přidávají filtry obsahu, aby zabránily explicitním nebo nepravdivým výstupům. Vlády a instituce toto kodifikují.

Zákon EU o UI například zakazuje některá nebezpečná použití zcela a klasifikuje jiná jako „vysoce riziková“ (podléhající auditům).

Podobně etický rámec UNESCO pro UI vyžaduje opatření jako audit férovosti, ochranu kybernetické bezpečnosti a přístupné procesy pro stížnosti.

Na praktické úrovni vydávají standardizační orgány pokyny.

Zmíněný rámec NIST v USA poskytuje dobrovolné normy pro organizace, jak hodnotit a zmírňovat rizika UI.

Na mezinárodní úrovni pracují skupiny jako OECD a OSN na principech UI (mnoho zemí je podepsalo).

Dokonce i firmy a univerzity zakládají ústavy a koalice pro výzkum dlouhodobých rizik UI.

Kromě toho současná regulace řeší konkrétní škody.

Například zákony na ochranu spotřebitele se aplikují i na UI.

Interní dokumenty Meta odhalily, že chatboty UI flirtovaly s dětmi, což rozhněvalo regulátory (nástroj Meta nebyl povolen podle stávajících zákonů na ochranu dětí).

Úřady spěchají s aktualizací zákonů o nenávistných projevech, autorských právech a ochraně soukromí, aby zahrnovaly obsah generovaný UI.

Jak poznamenal jeden expert z Nového Zélandu, mnoho současných zákonů „nebylo navrženo s ohledem na generativní UI“, takže zákonodárci dohánějí zpoždění.

Celkový trend je jasný: UI se začíná regulovat podobně jako jiné technologie s dvojím využitím.

Stejně jako máme dopravní předpisy pro auta nebo bezpečnostní normy pro chemikálie, společnost začíná vytvářet ochranné mantinely pro UI.

Patří sem: pokračující výzkum rizik UI, veřejně-soukromá spolupráce na bezpečnosti, osvětové kampaně o deepfakech a dokonce i referenda, která se ptají občanů, kolik autonomie chtějí strojům dát.

>>>Zjistěte více:

Nahradí AI člověka?

Myslí umělá inteligence jako lidé?

Ochranná opatření a regulace UI


Takže, je umělá inteligence nebezpečná? Odpověď není jednoznačná. UI není základně zlá – je to nástroj vytvořený lidmi.

Ve svých mnoha praktických podobách dnes přinesla obrovské přínosy medicíně, vzdělávání, průmyslu a dalším oblastem (jak zdůrazňují organizace jako UNESCO a EU).

Současně téměř všichni souhlasí, že UI může být nebezpečná, pokud je její síla zneužita nebo ponechána bez vedení.

Mezi běžné obavy patří porušování soukromí, předsudky, dezinformace, otřesy na trhu práce a hypotetické riziko nekontrolovatelné superinteligence.

Mladí lidé, kteří se učí o UI, by měli znát obě stránky. Je rozumné být si vědom skutečných nebezpečí: například nikdy slepě nedůvěřovat UI nebo nesdílet soukromá data bez opatrnosti.

Zároveň je důležité vidět, že odborníci a vlády aktivně pracují na zvýšení bezpečnosti UI – vyvíjejí zákony (jako zákon EU o UI), směrnice (jako etická doporučení UNESCO) a technologie (jako detekci předsudků), které pomáhají problémy včas odhalit.

Stručně řečeno, UI je jako každá mocná technologie: může přinášet velké dobro, pokud je používána zodpovědně, a způsobit škody, pokud je zneužita.

Konsenzus mezi vědci a tvůrci politik je, že neměli bychom UI buď strašit, nebo ignorovat, ale zůstat informovaní a aktivně se podílet na formování její budoucnosti.

S vhodnými „ochrannými mantinely“ – etickým vývojem UI, robustní regulací a veřejným povědomím – můžeme UI bezpečně řídit a zajistit, aby přinášela lidstvu užitek, aniž by se stala nebezpečnou.

Externí odkazy
Tento článek byl sestaven s odkazem na následující externí zdroje: