Tento článek vám pomůže lépe porozumět problémům umělé inteligence a bezpečnosti dat, pojďme to zjistit společně s INVIAI!
Umělá inteligence (AI) mění průmysl i společnost, ale zároveň vyvolává zásadní obavy o bezpečnost dat. Moderní AI systémy jsou poháněny obrovskými datovými sadami, včetně citlivých osobních a organizačních informací. Pokud tato data nejsou dostatečně zabezpečena, může být ohrožena přesnost a důvěryhodnost výsledků AI.
Kybernetická bezpečnost je totiž považována za „nezbytnou podmínku pro bezpečnost, odolnost, soukromí, spravedlnost, účinnost a spolehlivost AI systémů“. To znamená, že ochrana dat není jen otázkou IT – je zásadní pro to, aby AI přinášela užitek bez škod.
Jak se AI stává součástí klíčových operací po celém světě, musí organizace zůstat ostražité a chránit data, která tyto systémy pohánějí.
Důležitost bezpečnosti dat při vývoji AI
Síla AI vychází z dat. Modely strojového učení se učí vzory a rozhodují na základě dat, na kterých byly trénovány. Proto je bezpečnost dat zásadní při vývoji a nasazení AI systémů. Pokud útočník může data pozměnit nebo ukrást, chování a výstupy AI mohou být zkreslené nebo nedůvěryhodné.
Úspěšné strategie správy dat AI musí zajistit, že data nebyla v žádné fázi manipulována nebo poškozena, neobsahují škodlivý či neoprávněný obsah a neobsahují nechtěné anomálie.
V podstatě je nezbytné chránit integritu a důvěrnost dat ve všech fázích životního cyklu AI – od návrhu a tréninku až po nasazení a údržbu – aby byla AI spolehlivá. Opomenutí kybernetické bezpečnosti v jakékoli z těchto fází může ohrozit bezpečnost celého AI systému. Oficiální doporučení mezinárodních bezpečnostních agentur zdůrazňují, že robustní základní opatření kybernetické bezpečnosti by měla platit pro všechny datové sady používané při navrhování, vývoji, provozu a aktualizacích AI modelů.
Stručně řečeno, bez silné bezpečnosti dat nemůžeme AI systémům důvěřovat, že jsou bezpečné a přesné.
Výzvy ochrany soukromí v éře AI
Jedním z největších problémů na pomezí AI a bezpečnosti dat je ochrana soukromí. AI algoritmy často vyžadují obrovské množství osobních nebo citlivých dat – od online chování a demografických údajů až po biometrické identifikátory – aby mohly efektivně fungovat. To vyvolává otázky, jak jsou tato data sbírána, používána a chráněna. Neoprávněné využívání dat a skryté sběry dat se staly běžnými výzvami: AI systémy mohou získávat osobní informace bez plného vědomí či souhlasu jednotlivců.
Například některé služby poháněné AI prohledávají internet za daty – kontroverzní případ zahrnoval společnost zabývající se rozpoznáváním obličejů, která shromáždila databázi více než 20 miliard obrázků získaných ze sociálních sítí a webů bez souhlasu. To vedlo k regulačním postihům, kdy evropské úřady uložily vysoké pokuty a zákazy za porušení zákonů o ochraně soukromí. Takové případy ukazují, že inovace v AI mohou snadno překročit etické a právní hranice, pokud není respektována ochrana soukromí.
Regulátoři po celém světě reagují vynucováním zákonů na ochranu dat v kontextu AI. Rámce jako Obecné nařízení o ochraně osobních údajů (GDPR) Evropské unie již ukládají přísné požadavky na zpracování osobních údajů, což ovlivňuje AI projekty globálně. Na obzoru je také nová specifická regulace AI – například EU AI Act (očekávaný účinek do roku 2025) bude vyžadovat, aby vysoce rizikové AI systémy implementovaly opatření zajišťující kvalitu dat, přesnost a odolnost kybernetické bezpečnosti.
Mezinárodní organizace potvrzují tyto priority: globální doporučení UNESCO pro etiku AI výslovně zahrnuje „Právo na soukromí a ochranu dat“, zdůrazňující, že soukromí musí být chráněno během celého životního cyklu AI systému a že musí být zavedeny adekvátní rámce ochrany dat. Shrnutě, organizace nasazující AI musí navigovat složitou krajinu obav o soukromí a regulací, aby zajistily transparentní a bezpečné nakládání s daty jednotlivců a udržely důvěru veřejnosti.
Hrozby pro integritu dat a AI systémy
Zabezpečení AI není jen o ochraně dat před krádeží – jde také o zajištění integrity dat a modelů proti sofistikovaným útokům. Zlí aktéři objevili způsoby, jak zneužít AI systémy cílením na samotný datový řetězec. Společné kybernetické bezpečnostní doporučení z roku 2025 vyzdvihlo tři hlavní oblasti rizik specifických pro AI data: ohrožené dodavatelské řetězce dat, záměrně pozměněná („otrávená“) data a posun dat (data drift). Níže rozebíráme tyto a další klíčové hrozby:
-
Útoky otrávením dat: Při tomto útoku útočník záměrně vkládá falešná nebo zavádějící data do tréninkové sady AI systému, čímž korumpuje chování modelu. Protože AI modely se „učí“ z tréninkových dat, otrávená data mohou způsobit, že budou dělat nesprávná rozhodnutí nebo předpovědi.
Například pokud kyberzločinci vloží škodlivé vzorky do tréninkových dat spamového filtru, AI může začít klasifikovat nebezpečné e-maily s malwarem jako bezpečné. Známým příkladem z praxe byl incident s chatbotem Tay od Microsoftu v roce 2016 – internetoví trollové „otrávili“ chatbota urážlivými vstupy, což vedlo k tomu, že Tay začal projevovat toxické chování. Tento případ ukázal, jak rychle může být AI systém vyveden z rovnováhy špatnými daty, pokud nejsou zavedeny ochrany.Otrava může být také subtilnější: útočníci mohou změnit jen malé procento dat tak, že je obtížné to odhalit, ale model je tím zaujatý ve svůj prospěch. Detekce a prevence otravy je velkou výzvou; osvědčené postupy zahrnují ověřování zdrojů dat a využívání detekce anomálií k odhalení podezřelých datových bodů dříve, než ovlivní AI.
-
Adversariální vstupy (útoky vyhýbáním se): I po natrénování a nasazení AI modelu se útočníci mohou pokusit oklamat systém dodáním pečlivě upravených vstupů. Při útoku vyhýbáním se jsou vstupní data jemně pozměněna tak, aby AI špatně interpretovala jejich obsah. Tyto úpravy mohou být pro člověka nepostřehnutelné, ale mohou zcela změnit výstup modelu.
Klasickým příkladem jsou systémy počítačového vidění: výzkumníci ukázali, že nalepením několika malých samolepek nebo trochou barvy na dopravní značku STOP lze oklamat AI samořiditelného auta, které ji začne „vidět“ jako značku omezující rychlost. Obrázek níže ukazuje, jak drobné úpravy, které člověk považuje za bezvýznamné, mohou AI model zcela zmást. Útočníci by mohli podobnými technikami obejít rozpoznávání obličejů nebo filtry obsahu přidáním neviditelných rušivých prvků do obrázků či textu. Takové adversariální příklady ukazují zásadní zranitelnost AI – její schopnost rozpoznávat vzory může být zneužita způsoby, které lidé nečekají.防
Drobné úpravy dopravní značky STOP (například nenápadné samolepky nebo značení) mohou oklamat AI systém počítačového vidění, který ji začne nesprávně interpretovat – v jednom experimentu byla upravená značka STOP konzistentně vyhodnocena jako značka omezující rychlost. To ilustruje, jak adversariální útoky mohou oklamat AI využitím zvláštností v tom, jak modely interpretují data.
-
Rizika dodavatelského řetězce dat: Vývojáři AI často spoléhají na externí nebo třetí strany jako zdroje dat (například datové sady získané z webu, otevřená data nebo agregátory dat). To vytváří zranitelnost v dodavatelském řetězci – pokud jsou zdrojová data kompromitována nebo pocházejí z nedůvěryhodného původu, mohou obsahovat skryté hrozby.
Například veřejně dostupná datová sada může být záměrně naplněna škodlivými záznamy nebo jemnými chybami, které později ohrozí AI model, který ji používá. Zajištění původu dat (znát, odkud data pocházejí a že nebyla pozměněna) je klíčové.Společné doporučení bezpečnostních agentur vyzývá k zavedení opatření jako digitální podpisy a kontroly integrity, aby se ověřila pravost dat během jejich průchodu AI řetězcem. Bez těchto opatření by útočník mohl převzít kontrolu nad dodavatelským řetězcem AI změnou dat v rané fázi (například manipulací s tréninkovými daty modelu staženými z veřejného úložiště).
-
Posun dat a degradace modelu: Ne všechny hrozby jsou záměrné – některé vznikají přirozeně v čase. Posun dat (data drift) označuje jev, kdy se statistické vlastnosti dat postupně mění tak, že data, se kterými AI systém pracuje v provozu, již neodpovídají datům, na kterých byl trénován. To může vést ke snížení přesnosti nebo nepředvídatelnému chování.
I když posun dat není sám o sobě útokem, stává se bezpečnostním problémem, pokud špatně fungující model může být zneužit útočníky. Například AI systém pro detekci podvodů, který byl trénován na loňských vzorcích transakcí, může letos začít přehlížet nové taktiky podvodníků, zejména pokud se ti přizpůsobí, aby obcházeli starý model.Útočníci mohou dokonce záměrně zavádět nové vzory (forma konceptuálního driftu), aby modely zmátli. Pravidelné přeškolování modelů s aktualizovanými daty a sledování jejich výkonu je nezbytné k omezení driftu. Udržování modelů aktuálních a průběžná validace jejich výstupů zajišťuje, že zůstanou odolné vůči měnícímu se prostředí i pokusům o zneužití zastaralých znalostí.
-
Tradiční kybernetické útoky na infrastrukturu AI: Je důležité si uvědomit, že AI systémy běží na standardních softwarových a hardwarových platformách, které zůstávají zranitelné vůči běžným kybernetickým hrozbám. Útočníci mohou cílit na servery, cloudová úložiště nebo databáze, kde jsou uložena tréninková data a modely AI.
Průnik do těchto systémů by mohl odhalit citlivá data nebo umožnit manipulaci s AI systémem. Například již došlo k únikům dat u AI společností – v jednom případě byla zveřejněna interní klientská databáze firmy zabývající se rozpoznáváním obličejů poté, co útočníci získali přístup, což odhalilo, že její služby využilo přes 2200 organizací.Takové incidenty zdůrazňují, že organizace pracující s AI musí dodržovat silné bezpečnostní postupy (šifrování, kontrolu přístupu, zabezpečení sítí) stejně jako jakákoliv softwarová firma. Navíc krádež nebo zneužití modelů je rostoucí problém: útočníci mohou ukrást proprietární AI modely (například hackováním nebo reverzním inženýrstvím veřejně dostupných AI služeb). Ukradené modely mohou být zneužity nebo analyzovány za účelem nalezení dalších zranitelností. Proto je ochrana AI modelů (například šifrováním v klidu a kontrolou přístupu) stejně důležitá jako ochrana dat.
Shrnuto, AI systémy čelí kombinaci unikátních útoků zaměřených na data (otrávení, adversariální vyhýbání, zásahy do dodavatelského řetězce) a tradičních kybernetických rizik (hackování, neoprávněný přístup). To vyžaduje komplexní přístup k bezpečnosti, který řeší integritu, důvěrnost a dostupnost dat i AI modelů v každé fázi.
Jak uvádí Národní centrum kybernetické bezpečnosti Velké Británie a jeho partneři, AI systémy přinášejí „nové bezpečnostní zranitelnosti“ a bezpečnost musí být základní požadavek v celém životním cyklu AI, nikoli pouze dodatečná záležitost.
AI: Dvojsečný meč pro bezpečnost
Zatímco AI přináší nové bezpečnostní rizika, je také mocným nástrojem pro posílení bezpečnosti dat, pokud je používána eticky. Je důležité si uvědomit tuto dvojí povahu. Na jedné straně kyberzločinci využívají AI k zesílení svých útoků; na druhé straně obránci používají AI k posílení kybernetické bezpečnosti.
-
AI v rukou útočníků: Nástup generativní AI a pokročilého strojového učení snížil bariéry pro provádění sofistikovaných kybernetických útoků. Zlí aktéři mohou využívat AI k automatizaci phishingových a sociálně-inženýrských kampaní, což činí podvody přesvědčivějšími a obtížněji odhalitelnými.
Například generativní AI dokáže vytvořit vysoce personalizované phishingové e-maily nebo falešné zprávy, které napodobují styl psaní konkrétní osoby, čímž zvyšují pravděpodobnost, že oběť bude oklamána. AI chatboti mohou dokonce vést živé rozhovory s cíli, přičemž se vydávají za zákaznickou podporu nebo kolegy, a snaží se uživatele přimět k odhalení hesel nebo finančních údajů.Další hrozbou jsou deepfakes – syntetická videa nebo audio klipy generované AI. Útočníci použili deepfake audio k napodobení hlasů generálních ředitelů nebo jiných úředníků, aby autorizovali podvodné bankovní převody v tzv. „hlasovém phishingu“. Podobně mohou být deepfake videa použita k šíření dezinformací nebo vydírání. Škálovatelnost AI znamená, že tyto útoky lze provádět v rozsahu (a někdy s věrohodností), která dříve nebyla možná.
Bezpečnostní experti upozorňují, že AI se stala zbraní v arzenálu kyberzločinců, používanou od identifikace softwarových zranitelností až po automatizaci tvorby malwaru. Tento trend vyžaduje, aby organizace posílily své obrany a vzdělávaly uživatele, protože „lidský faktor“ (například uvěření phishingovému e-mailu) je často nejslabším článkem.
-
AI pro obranu a detekci: Naštěstí tyto stejné schopnosti AI mohou výrazně zlepšit kybernetickou bezpečnost na obranné straně. Nástroje zabezpečené AI dokážou analyzovat obrovské množství síťového provozu a systémových logů, aby odhalily anomálie, které mohou signalizovat kybernetický průnik.
Tím, že se modely strojového učení naučí, jak vypadá „normální“ chování v systému, mohou v reálném čase upozornit na neobvyklé vzory – potenciálně odhalit hackery přímo při útoku nebo zjistit únik dat v okamžiku jeho probíhání. Detekce anomálií je zvláště užitečná pro identifikaci nových, skrytých hrozeb, které by detektory založené na signaturách mohly přehlédnout.Například AI systémy mohou sledovat vzory přihlášení uživatelů nebo přístupu k datům ve firmě a upozornit bezpečnostní týmy, pokud zaznamenají podezřelý pokus o přístup nebo uživatele stahujícího neobvykle velké množství dat (což může signalizovat vnitřní hrozbu nebo zneužití ukradených přihlašovacích údajů). AI se také používá k filtrování spamu a škodlivého obsahu, kde se učí rozpoznávat phishingové e-maily nebo malware podle jejich charakteristik.
V oblasti detekce podvodů banky a finanční instituce využívají AI k okamžitému vyhodnocení transakcí vůči typickému chování zákazníka a blokují ty, které vypadají podezřele, čímž zabraňují podvodům v reálném čase. Další obrannou aplikací je využití AI pro správu zranitelností – strojové učení může upřednostnit nejkritičtější softwarové chyby k opravě tím, že předpovídá, které z nich budou nejpravděpodobněji zneužity, což pomáhá organizacím záplatovat systémy dříve, než dojde k útoku.
Důležité je, že AI nenahrazuje lidské bezpečnostní experty, ale doplňuje je tím, že zpracovává velké objemy dat a rozpoznává vzory, aby se analytici mohli soustředit na vyšetřování a reakce. Tato synergie mezi AI nástroji a lidskou expertízou se stává základem moderní kybernetické bezpečnostní strategie.
V podstatě AI zároveň rozšiřuje pole hrozeb i nabízí nové způsoby, jak posílit obranu. Tento závod ve zbrojení znamená, že organizace musí být informovány o pokroku AI na obou stranách. Povzbuzující je, že mnoho poskytovatelů kybernetické bezpečnosti nyní začleňuje AI do svých produktů a vlády financují výzkum AI řízené kyberobrany.
Nicméně je třeba být opatrný: stejně jako u jakéhokoli bezpečnostního nástroje, i obranné AI systémy musí být důkladně testovány, aby se zajistilo, že samy nebudou oklamány útočníky (například útočník může zkusit podat obranné AI zavádějící data, aby ji „oslepil“ vůči probíhajícímu útoku – forma otravy zaměřená na bezpečnostní systémy). Proto by nasazení AI pro kybernetickou bezpečnost mělo být doprovázeno silnou validací a dohledem.
Nejlepší postupy pro zabezpečení dat AI
Vzhledem k množství hrozeb, co mohou organizace udělat pro zabezpečení AI a dat, která ji pohánějí? Odborníci doporučují vícestupňový přístup, který integruje bezpečnost do každého kroku životního cyklu AI systému. Zde jsou některé osvědčené postupy shrnuté z renomovaných kybernetických agentur a výzkumníků:
-
Správa dat a kontrola přístupu: Začněte přísnou kontrolou, kdo má přístup k tréninkovým datům AI, modelům a citlivým výstupům. Používejte robustní autentizaci a autorizaci, aby data mohly upravovat pouze důvěryhodné osoby nebo systémy. Všechna data (ať už v klidu nebo při přenosu) by měla být šifrována, aby se zabránilo zachycení nebo krádeži.
Pro účely odpovědnosti je důležité zaznamenávat a auditovat přístupy k datům – pokud dojde k problému, záznamy pomohou vystopovat zdroj. Také uplatňujte princip nejmenších oprávnění: každý uživatel nebo komponenta by měla mít přístup pouze k minimálním datům nezbytným pro svou funkci. -
Validace dat a původ: Před použitím jakékoli datové sady pro trénink nebo její vložení do AI ověřte její integritu. Techniky jako digitální podpisy a kontrolní součty mohou zajistit, že data nebyla od doby sběru pozměněna. Udržování jasného původu dat (záznam o zdroji) pomáhá budovat důvěru – například preferujte data z důvěryhodných, ověřených zdrojů nebo oficiálních partnerů.
Pokud používáte data získaná z crowdsourcingu nebo webového škrabání, zvažte jejich křížovou kontrolu z více zdrojů (tzv. „konsenzuální“ přístup) k odhalení anomálií. Některé organizace zavádějí sandboxing nových dat – data jsou analyzována izolovaně na případné varovné signály (například škodlivý kód nebo zjevné odlehlé hodnoty) před jejich začleněním do tréninku. -
Bezpečné postupy vývoje AI: Dodržujte bezpečné programovací a nasazovací postupy přizpůsobené AI. To znamená řešit nejen běžné softwarové zranitelnosti, ale i specifické pro AI. Například začleňte principy „privacy by design“ a „security by design“: budujte AI model a datový řetězec s ochranami již od začátku, místo aby se přidávaly dodatečně.
Pokyny z Velké Británie a USA pro bezpečný vývoj AI doporučují používat modelování hrozeb během návrhu, aby se předvídalo, jak by mohl někdo AI systém napadnout. Během vývoje modelu používejte techniky snižující dopad otrávených dat – jedním z přístupů je detekce odlehlých hodnot v tréninkové sadě, takže pokud 5 % dat modelu předkládá podivné nebo škodlivé informace, zachytíte to před tréninkem.Dalším přístupem je robustní trénink modelu: existují algoritmy, které dělají modely méně citlivými na odlehlé hodnoty nebo adversariální šum (například rozšířením tréninkových dat o drobné rušivé prvky, aby se model naučil být odolný). Pravidelné revize kódu a bezpečnostní testování (včetně red-team cvičení, kdy testeři aktivně zkouší systém rozbít) jsou stejně důležité pro AI jako pro jakýkoli kritický software.
-
Monitorování a detekce anomálií: Po nasazení průběžně sledujte vstupy a výstupy AI systému na známky manipulace nebo driftu. Nastavte upozornění na neobvyklé vzory – například pokud najednou přijde vlna podobných neobvyklých dotazů na váš AI model (což může znamenat pokus o otrávení nebo útok na extrakci), nebo pokud model začne dávat zjevně podivné výstupy. Systémy detekce anomálií mohou běžet na pozadí a tyto události označovat.
Monitorování by mělo také zahrnovat metriky kvality dat; pokud přesnost modelu na nových datech začne neočekávaně klesat, může to být známka posunu dat nebo tichého otrávení, což vyžaduje vyšetření. Je rozumné modely pravidelně přeškolovat nebo aktualizovat s čerstvými daty, aby se zmírnil přirozený drift a aplikovaly záplaty, pokud jsou objeveny nové zranitelnosti AI algoritmu. -
Plány reakce na incidenty a obnovy: Přestože se snažíte, průniky nebo selhání se mohou stát. Organizace by měly mít jasný plán reakce na incidenty specifický pro AI systémy. Pokud dojde k úniku dat, jak ho omezíte a jak upozorníte zasažené strany?
Pokud zjistíte, že vaše tréninková data byla otrávena, máte záložní datové sady nebo předchozí verze modelů, na které se můžete vrátit? Plánování nejhorších scénářů zajistí, že útok na AI nezparalyzuje vaše operace na dlouhou dobu. Pravidelně zálohujte kritická data a dokonce i verze modelů – takto můžete v případě kompromitace AI modelu v produkci přejít zpět na známý dobrý stav.V aplikacích s vysokými nároky některé organizace udržují redundantní AI modely nebo soubory modelů; pokud jeden model začne vykazovat podezřelé chování, sekundární model může ověřit výstupy nebo převzít zpracování, dokud se problém nevyřeší (podobně jako bezpečnostní mechanismy fail-safe).
-
Školení zaměstnanců a povědomí: Bezpečnost AI není jen technický problém; lidé hrají velkou roli. Ujistěte se, že vaše týmy datových vědců a vývojářů jsou školeny v bezpečných postupech. Měly by být informovány o hrozbách jako adversariální útoky a neměly by automaticky předpokládat, že data, která AI dodávají, jsou vždy neškodná.
Podporujte kulturu skepticismu, kde jsou neobvyklé datové trendy zpochybňovány, nikoli ignorovány. Také vzdělávejte všechny zaměstnance o rizicích AI řízeného sociálního inženýrství (například je učte rozpoznávat deepfake hlasy nebo phishingové e-maily, protože tyto útoky s AI přibývají). Lidská ostražitost může odhalit věci, které automatizované systémy přehlédnou.
Implementace těchto postupů může výrazně snížit riziko incidentů v oblasti AI a bezpečnosti dat. Mezinárodní agentury jako americká Cybersecurity and Infrastructure Security Agency (CISA) a její partneři doporučují právě takové kroky – od přijetí silných opatření na ochranu dat a proaktivního řízení rizik až po posílení monitorování a schopností detekce hrozeb pro AI systémy.
V nedávném společném doporučení úřady vyzvaly organizace, aby „chránily citlivá, proprietární a kritická data v AI systémech“ pomocí opatření jako šifrování, sledování původu dat a důkladného testování. Klíčové je, že bezpečnost by měla být kontinuálním procesem: průběžné hodnocení rizik je nezbytné, aby drželo krok s vyvíjejícími se hrozbami.
Stejně jako útočníci neustále vymýšlejí nové strategie (zejména s pomocí AI samotné), musí organizace neustále aktualizovat a zlepšovat své obrany.
Globální úsilí a regulační reakce
Vlády a mezinárodní organizace po celém světě aktivně řeší otázky bezpečnosti dat související s AI, aby vybudovaly důvěru v AI technologie. Již jsme zmínili nadcházející EU AI Act, který bude vynucovat požadavky na transparentnost, řízení rizik a kybernetickou bezpečnost u vysoce rizikových AI systémů. Evropa také zkoumá aktualizace zákonů o odpovědnosti, aby držitelé AI byli zodpovědní za bezpečnostní selhání.
Ve Spojených státech vytvořil Národní institut pro standardy a technologie (NIST) Rámec řízení rizik AI, který pomáhá organizacím hodnotit a zmírňovat rizika AI, včetně bezpečnostních a soukromí. Rámec NIST, vydaný v roce 2023, zdůrazňuje budování důvěryhodných AI systémů zohledněním robustnosti, vysvětlitelnosti a bezpečnosti již od fáze návrhu.
Americká vláda také spolupracovala s hlavními AI firmami na dobrovolných závazcích v oblasti kybernetické bezpečnosti – například zajištění testování modelů nezávislými experty (red teamy) na zranitelnosti před jejich uvedením na trh a investice do technik, které činí výstupy AI bezpečnějšími.
Mezinárodní spolupráce je v oblasti bezpečnosti AI výrazná. Průlomová spolupráce proběhla v roce 2023, kdy britské NCSC, CISA, FBI a agentury z více než 20 zemí vydaly společné směrnice pro bezpečný vývoj AI. Toto bezprecedentní globální doporučení zdůraznilo, že bezpečnost AI je společnou výzvou a poskytlo osvědčené postupy (v souladu s principy secure-by-design zmíněnými výše) pro organizace po celém světě.
Zdůraznilo, že „bezpečnost musí být základním požadavkem… v celém životním cyklu“ AI a neměla by být pouze dodatečnou záležitostí. Takové společné úsilí signalizuje uznání, že hrozby AI neznají hranice a zranitelnost v AI systému široce používaném v jedné zemi může mít globální dopady.
Dále organizace jako UNESCO přispěly vytvořením prvního globálního standardu etiky AI (2021), který ač širšího rozsahu, obsahuje silné body o bezpečnosti a ochraně soukromí. Doporučení UNESCO vyzývá členské státy a firmy, aby zajistily „vyvarování se nežádoucím škodám (bezpečnostním rizikům) i zranitelnostem vůči útokům (bezpečnostním hrozbám)“ a aby byly dodržovány rámce ochrany dat a lidských práv v kontextu AI.
Podobné principy najdeme v zásadách OECD pro AI a prohlášeních G7: všechny zdůrazňují bezpečnost, odpovědnost a ochranu soukromí uživatelů jako klíčové pilíře důvěryhodné AI.
V soukromém sektoru roste ekosystém zaměřený na bezpečnost AI. Průmyslové koalice sdílejí výzkum v oblasti adversariálního strojového učení a konference pravidelně zahrnují sekce věnované „AI Red Teamingu“ a bezpečnosti ML. Objevují se nástroje a rámce pro testování AI modelů na zranitelnosti před nasazením. Dokonce i standardizační orgány se zapojují – ISO údajně pracuje na standardech bezpečnosti AI, které by mohly doplnit stávající kybernetické bezpečnostní normy.
Pro organizace a odborníky se sladění s těmito globálními směrnicemi a standardy stává součástí náležité péče. Nejenže to snižuje riziko incidentů, ale také připravuje organizace na dodržování zákonů a buduje důvěru uživatelů a zákazníků. V sektorech jako zdravotnictví a finance může prokázání bezpečnosti a souladu AI představovat konkurenční výhodu.
>>> Může se vám hodit:
Rizika používání umělé inteligence
Výhody umělé inteligence pro jednotlivce a firmy
Transformační potenciál AI přináší stejně významné výzvy v oblasti bezpečnosti dat. Zajištění bezpečnosti a integrity dat v AI systémech není volitelné – je to základ úspěchu a přijetí AI řešení. Od ochrany soukromí osobních dat po zabezpečení AI modelů před manipulací a adversariálními útoky je potřeba komplexní přístup zaměřený na bezpečnost.
Problémy zasahují do technologií, politiky i lidských faktorů: velké datové sady musí být zpracovávány odpovědně v souladu se zákony o ochraně soukromí; AI modely potřebují ochranu před novými typy útoků; uživatelé i vývojáři musí být ostražití v době AI řízených kybernetických hrozeb.
Dobrou zprávou je, že povědomí o problémech AI a bezpečnosti dat nikdy nebylo vyšší. Vlády, mezinárodní organizace a lídři průmyslu aktivně vyvíjejí rámce a regulace pro bezpečný vývoj AI. Současně špičkový výzkum pokračuje ve zvyšování odolnosti AI – od algoritmů odolných vůči adversariálním příkladům až po nové metody ochrany soukromí (jako federované učení a diferenciální soukromí), které umožňují získávat užitečné poznatky, aniž by bylo nutné vystavovat surová data.
Implementací osvědčených postupů – robustního šifrování, validace dat, průběžného monitorování a dalších – mohou organizace výrazně snížit rizika.
Nakonec by AI měla být vyvíjena a nasazována s přístupem „bezpečnost na prvním místě“. Jak odborníci poznamenali, kybernetická bezpečnost je předpokladem pro plné využití přínosů AI. Když jsou AI systémy bezpečné, můžeme s důvěrou využívat jejich efektivitu a inovace.
Pokud však varování ignorujeme, úniky dat, škodlivé manipulace a porušování soukromí mohou podkopat důvěru veřejnosti a způsobit skutečnou škodu. V tomto rychle se vyvíjejícím oboru je klíčové zůstat aktivní a informovaný. AI a bezpečnost dat jsou dvě strany téže mince – a jen jejich společným řešením můžeme bezpečně a odpovědně naplnit slib AI pro všechny.