Makala hii itakusaidia kuelewa vyema masuala ya AI na usalama wa data, hebu tujifunze pamoja na INVIAI sasa!

Akili Bandia (AI) inabadilisha sekta na jamii, lakini pia inaleta wasiwasi mkubwa kuhusu usalama wa data. Mifumo ya kisasa ya AI inaendeshwa na seti kubwa za data, zikiwemo taarifa nyeti za watu binafsi na mashirika. Ikiwa data hii haitalindwa ipasavyo, usahihi na uaminifu wa matokeo ya AI unaweza kuathiriwa.

Kwa kweli, usalama wa mtandao unachukuliwa kama “sharti muhimu kwa usalama, uimara, faragha, usawa, ufanisi na uaminifu wa mifumo ya AI”. Hii ina maana kwamba kulinda data si suala la IT tu – ni msingi wa kuhakikisha AI inaleta manufaa bila kusababisha madhara.

AI inapoingizwa katika shughuli muhimu duniani kote, mashirika yanapaswa kuwa makini katika kulinda data inayoiendesha mifumo hii.

Umuhimu wa Usalama wa Data katika Maendeleo ya AI

Nguvu ya AI hutokana na data. Mifano ya kujifunza mashine hujifunza mifumo na kufanya maamuzi kulingana na data wanayofunzwa nayo. Hivyo, usalama wa data ni muhimu sana katika maendeleo na utekelezaji wa mifumo ya AI. Ikiwa mshambuliaji ataweza kuharibu au kuiba data, tabia na matokeo ya AI yanaweza kupotoshwa au kutokuwa ya kuaminika.

Mikakati madhubuti ya usimamizi wa data ya AI lazima ihakikishe kuwa data , haina maudhui ya uovu au yasiyoidhinishwa, na haina kasoro zisizotarajiwa.

Kwa kifupi, kulinda uadilifu na usiri wa data katika kila hatua ya mzunguko wa maisha wa AI – kuanzia muundo, mafunzo, utekelezaji hadi matengenezo – ni muhimu kwa AI ya kuaminika. Kukosa usalama wa mtandao katika hatua yoyote kunaweza kudhoofisha usalama wa mfumo mzima wa AI. Miongozo rasmi kutoka kwa mashirika ya usalama ya kimataifa inasisitiza kuwa hatua madhubuti za usalama wa mtandao zinapaswa kutumika kwa seti zote za data zinazotumika katika kubuni, kuendeleza, kuendesha, na kusasisha mifano ya AI.

Kwa kifupi, bila usalama thabiti wa data, hatuwezi kuamini mifumo ya AI kuwa salama au sahihi.

Umuhimu wa Usalama wa Data katika Maendeleo ya AI

Changamoto za Faragha ya Data katika Enzi ya AI

Moja ya masuala makubwa yanayokutana kati ya AI na usalama wa data ni faragha. Algoriti za AI mara nyingi zinahitaji kiasi kikubwa cha data binafsi au nyeti – kutoka tabia mtandaoni na takwimu za watu hadi vitambulisho vya kibaiolojia – ili kufanya kazi kwa ufanisi. Hii inaleta wasiwasi kuhusu jinsi data hiyo inavyokusanywa, kutumika, na kulindwa. Matumizi yasiyoidhinishwa ya data na ukusanyaji wa siri wa data yamekuwa changamoto kubwa: mifumo ya AI inaweza kutumia taarifa binafsi bila watu kujua au kutoa idhini yao kamili.

Kwa mfano, baadhi ya huduma zinazotumia AI hukusanya data mtandaoni – kesi yenye utata ilihusisha kampuni ya utambuzi wa uso iliyokusanya hifadhidata ya picha zaidi ya bilioni 20 zilizochukuliwa kutoka mitandao ya kijamii na tovuti bila idhini. Hii ilisababisha hatua kali za kisheria, ambapo mamlaka za Ulaya zilitia faini kubwa na marufuku kwa ukiukaji wa sheria za faragha. Matukio kama haya yanaonyesha kuwa uvumbuzi wa AI unaweza kuvuka mipaka ya maadili na sheria ikiwa faragha ya data haitaheshimiwa.

Wadhibiti kote duniani wanajibu kwa kutekeleza sheria za ulinzi wa data katika muktadha wa AI. Mifumo kama Kanuni ya Jumuiya ya Ulaya ya Ulinzi wa Data (GDPR) tayari inaweka masharti madhubuti juu ya jinsi data binafsi inavyoweza kushughulikiwa, na kuathiri miradi ya AI duniani kote. Pia kuna sheria mpya maalum za AI zinazokuja – kwa mfano, Sheria ya AI ya EU (inatarajiwa kuanza kutumika mwaka 2025) itahitaji mifumo ya AI yenye hatari kubwa kutekeleza hatua za kuhakikisha ubora wa data, usahihi, na uthabiti wa usalama wa mtandao.

Mashirika ya kimataifa yanasisitiza vipaumbele hivi: mapendekezo ya UNESCO kuhusu maadili ya AI yanajumuisha wazi “Haki ya Faragha na Ulinzi wa Data,” yakisisitiza kuwa faragha inapaswa kulindwa katika mzunguko mzima wa mfumo wa AI na kuwepo kwa mifumo ya kutosha ya ulinzi wa data. Kwa muhtasari, mashirika yanayotumia AI lazima yazingatie changamoto tata za faragha na sheria, kuhakikisha data za watu zinashughulikiwa kwa uwazi na usalama ili kudumisha imani ya umma.

Changamoto za Faragha ya Data katika Enzi ya AI

Vitisho kwa Uadilifu wa Data na Mifumo ya AI

Kuhakikisha usalama wa AI si tu kuhusu kulinda data dhidi ya wizi – pia ni kuhusu kuhakikisha uadilifu wa data na mifano dhidi ya mashambulizi ya hali ya juu. Watu wenye nia mbaya wamegundua njia za kutumia mifumo ya AI kwa kulenga mchakato wa data moja kwa moja. Ushauri wa pamoja wa usalama wa mtandao mwaka 2025 ulionyesha maeneo matatu makuu ya hatari za usalama wa data za AI: mnyororo wa usambazaji wa data uliovurugika, data iliyobadilishwa kwa makusudi (“iliyotiwa sumu”), na mabadiliko ya data. Hapa chini tunafafanua vitisho hivi na vingine muhimu:

  • Shambulio la Kutiwa Sumu Data: Katika shambulio hili, mshambuliaji huingiza data potofu au ya kupotosha kwa makusudi katika seti ya mafunzo ya AI, na kuharibu tabia ya mfano. Kwa kuwa mifano ya AI “hujifunza” kutoka kwa data ya mafunzo, data iliyotiwa sumu inaweza kusababisha maamuzi au utabiri usio sahihi.
    Kwa mfano, ikiwa wahalifu wa mtandao wataingiza sampuli zenye madhara katika data ya mafunzo ya kichujio cha barua taka, AI inaweza kuanza kutambua barua zenye virusi hatari kama salama. Mfano maarufu ni tukio la chatbot ya Microsoft Tay mwaka 2016 – watumiaji mtandaoni waliingiza maoni ya matusi na chuki, na kusababisha Tay kujifunza tabia hatari. Hii ilionyesha jinsi mfumo wa AI unaweza kuathiriwa haraka na data mbaya ikiwa kinga hazipo.

    Kutiwa sumu pia kunaweza kuwa kwa njia zisizoonekana: washambuliaji wanaweza kubadilisha sehemu ndogo ya data kwa njia ngumu kugundua lakini inayopendelea matokeo kwa upande wao. Kugundua na kuzuia sumu ni changamoto kubwa; mbinu bora ni kuchunguza vyanzo vya data na kutumia utambuzi wa kasoro kugundua data yenye shaka kabla haijaathiri AI.

  • Ingizo la Kupotosha (Shambulio la Kuepuka): Hata baada ya mfano wa AI kufunzwa na kutumika, washambuliaji wanaweza kujaribu kuudanganya kwa kuingiza data iliyotengenezwa kwa uangalifu. Katika shambulio la kuepuka, data ya ingizo hubadilishwa kidogo ili kusababisha AI kuitafsiri vibaya. Mabadiliko haya yanaweza yasionekane kwa binadamu lakini yanaweza kubadilisha kabisa matokeo ya mfano.
    Mfano wa kawaida ni mifumo ya kuona kwa kompyuta: watafiti wameonyesha kuwa kuweka viambatisho vidogo au rangi kidogo kwenye alama ya kusimama kunaweza kumdanganya AI ya gari linalojiendesha yenyewe kuiona kama alama ya kikomo cha mwendo. Picha hapa chini inaonyesha jinsi mabadiliko madogo yanayoonekana hayana maana kwa mtu yanaweza kuchanganya kabisa mfano wa AI. Washambuliaji wanaweza kutumia mbinu kama hizi kupita mifumo ya utambuzi wa uso au vichujio vya maudhui kwa kuongeza mabadiliko yasiyoonekana kwenye picha au maandishi. Mfano hizi za kupotosha zinaonyesha udhaifu wa msingi wa AI – uwezo wake wa kutambua mifumo unaweza kutumiwa kwa njia ambazo binadamu hawgetarajia.防

Mabadiliko madogo kwenye alama ya kusimama (kama viambatisho au alama zisizoonekana) yanaweza kumdanganya mfumo wa kuona wa AI kuitafsiri vibaya – katika jaribio moja, alama iliyobadilishwa ilitafsiriwa mara kwa mara kama alama ya kikomo cha mwendo. Hii inaonyesha jinsi mashambulio ya kupotosha yanavyoweza kumdanganya AI kwa kutumia udhaifu wa jinsi mifano inavyotafsiri data.

  • Hatari za Mnyororo wa Usambazaji wa Data: Waendelezaji wa AI mara nyingi hutegemea vyanzo vya data vya nje au vya watu wengine (kama seti za data zilizokusanywa mtandaoni, data wazi, au wakusanyaji data). Hii huleta udhaifu wa mnyororo wa usambazaji – ikiwa chanzo cha data kimevunjika au kinatoka sehemu isiyoaminika, kinaweza kuwa na vitisho vilivyojificha.
    Kwa mfano, seti ya data inayopatikana kwa umma inaweza kuwa imeingizwa kwa makusudi na maingizo ya uovu au makosa madogo ambayo baadaye yanaathiri mfano wa AI unaotumia data hiyo. Kuhakikisha asili ya data (kujua data inatoka wapi na kwamba haijaharibiwa) ni muhimu sana.

    Miongozo ya pamoja kutoka kwa mashirika ya usalama inahimiza kutekeleza hatua kama saini za kidijitali na ukaguzi wa uadilifu ili kuhakiki uhalali wa data inavyosafirishwa katika mnyororo wa AI. Bila kinga hizi, mshambuliaji anaweza kuingilia mnyororo wa usambazaji wa AI kwa kubadilisha data kabla haijafika kwenye mfano (mfano, kubadilisha data ya mafunzo ya mfano iliyopakuliwa kutoka hifadhidata ya umma).

  • Mabadiliko ya Data na Kudhoofika kwa Mfano: Sio vitisho vyote ni vya uovu – baadhi hutokea kwa asili kwa muda. Mabadiliko ya data yanahusu hali ambapo sifa za takwimu za data hubadilika polepole, kiasi kwamba data inayokumbwa na mfumo wa AI wakati wa utendaji haifani tena na data iliyotumika kufunza. Hii inaweza kusababisha kupungua kwa usahihi au tabia zisizotarajiwa.
    Ingawa mabadiliko ya data si shambulio moja kwa moja, yanakuwa tatizo la usalama wakati mfano unaotenda vibaya unaweza kutumiwa na washambuliaji. Kwa mfano, mfumo wa AI wa kugundua udanganyifu uliofunzwa kwa mifumo ya miamala ya mwaka jana unaweza kuanza kushindwa kugundua mbinu mpya za udanganyifu mwaka huu, hasa ikiwa wahalifu wanabadilika ili kuepuka mfano wa zamani.

    Washambuliaji wanaweza hata kuanzisha mifumo mipya kwa makusudi (aina ya mabadiliko ya dhana) kuchanganya mifano. Kufunza mifano mara kwa mara kwa data mpya na kufuatilia utendaji wake ni muhimu kupunguza athari za mabadiliko. Kuweka mifano kuwa ya kisasa na kuhakiki matokeo yao mara kwa mara kunahakikisha mifano inabaki imara dhidi ya mabadiliko ya mazingira na jaribio lolote la kutumia maarifa ya zamani.

  • Shambulio la Kawaida la Mtandao kwa Miundombinu ya AI: Ni muhimu kukumbuka kuwa mifumo ya AI inaendeshwa kwenye programu na vifaa vya kawaida, ambavyo bado vinaweza kushambuliwa kwa njia za kawaida za mtandao. Washambuliaji wanaweza kulenga seva, hifadhi za wingu, au hifadhidata zinazohifadhi data za mafunzo na mifano ya AI.
    Kuvunjika kwa usalama wa hizi kunaweza kufichua data nyeti au kuruhusu kuingiliwa kwa mfumo wa AI. Kwa mfano, uvunjaji wa data wa kampuni za AI tayari umetokea – katika tukio moja, orodha ya wateja wa kampuni ya utambuzi wa uso ilivujishwa baada ya washambuliaji kupata ufikiaji, ikifichua kuwa mashirika zaidi ya 2,200 yalitumia huduma hiyo.

    Matukio kama haya yanaonyesha kuwa mashirika ya AI yanapaswa kufuata mbinu madhubuti za usalama (usimbaji fiche, udhibiti wa upatikanaji, usalama wa mtandao) kama vile kampuni yoyote ya programu. Zaidi ya hayo, wizi wa mifano ni tatizo linaloongezeka: washambuliaji wanaweza kuiba mifano ya AI ya kipekee (kupitia udukuzi au kuuliza huduma ya AI ya umma ili kuibadilisha mfano). Mifano iliyoporwa inaweza kutumiwa vibaya au kuchunguzwa kugundua udhaifu zaidi. Kwa hivyo, kulinda mifano ya AI (mfano, kwa usimbaji fiche wakati haijatumiwa na kudhibiti upatikanaji) ni muhimu kama kulinda data.

Kwa muhtasari, mifumo ya AI inakumbwa na mchanganyiko wa mashambulio ya kipekee yanayolenga data (kutiwa sumu, kuepuka kwa kupotosha, kuingiliwa kwa mnyororo wa usambazaji) na hatari za kawaida za mtandao (uduzi, upatikanaji usioidhinishwa). Hii inahitaji mbinu kamili ya usalama inayoshughulikia uadilifu, usiri, na upatikanaji wa data na mifano ya AI katika kila hatua.

Kama ilivyoelezwa na Kituo cha Kitaifa cha Usalama wa Mtandao cha Uingereza na washirika wake, mifumo ya AI inaleta “udhaifu mpya wa usalama” na usalama unapaswa kuwa hitaji kuu katika mzunguko mzima wa maisha ya AI, si jambo la kufikiria baadaye tu.

Vitisho kwa Uadilifu wa Data na Mifumo ya AI

AI: Upanga wa Pande Mbili kwa Usalama

Wakati AI inaleta hatari mpya za usalama, pia ni chombo chenye nguvu cha kuimarisha usalama wa data inapoitwa kwa maadili. Ni muhimu kutambua asili hii ya pande mbili. Kwa upande mmoja, wahalifu wa mtandao wanatumia AI kuongeza nguvu za mashambulio yao; kwa upande mwingine, walinzi wanatumia AI kuimarisha usalama wa mtandao.

  • AI Mikononi mwa Washambuliaji: Kuibuka kwa AI ya kizazi na ujifunzaji wa mashine wa hali ya juu kumesababisha kushuka kwa vizingiti vya kufanya mashambulio ya mtandao ya hali ya juu. Watu wenye nia mbaya wanaweza kutumia AI kuendesha kampeni za ulaghai na uhandisi wa kijamii, na kufanya udanganyifu kuwa wa kuaminika zaidi na mgumu kugundua.
    Kwa mfano, AI ya kizazi inaweza kuunda barua pepe za ulaghai zilizobinafsishwa sana au ujumbe wa uongo unaoiga mtindo wa uandishi wa mtu binafsi, kuongeza uwezekano wa mwathirika kudanganywa. Chatbot za AI zinaweza hata kuendesha mazungumzo ya moja kwa moja na walengwa huku zikijifanya kuwa huduma kwa wateja au wenzako, zikijaribu kuwahadaa watumiaji kufichua nywila au taarifa za kifedha.

    Tishio jingine ni deepfakes – video au sauti bandia zinazotengenezwa na AI. Washambuliaji wametumia sauti za deepfake kuiga sauti za wakuu wa makampuni au maafisa wengine kuidhinisha uhamishaji wa fedha wa udanganyifu katika kile kinachojulikana kama “ulaghai wa sauti”. Vivyo hivyo, video za deepfake zinaweza kutumiwa kusambaza habari potofu au kuonewa. Uwezo wa AI unamaanisha mashambulio haya yanaweza kufanyika kwa kiwango kikubwa (na wakati mwingine kwa uhalisia) ambao haukuwezekana hapo awali.

    Wataalamu wa usalama wanatambua kuwa AI imekuwa silaha katika mkoba wa wahalifu wa mtandao, ikitumika kwa kila kitu kuanzia kugundua udhaifu wa programu hadi kuunda programu hatari kwa njia ya kiotomatiki. Mwelekeo huu unahitaji mashirika kuimarisha kinga zao na kuwaelimisha watumiaji, kwani “kipengele cha binadamu” (kama kuanguka kwa barua pepe ya ulaghai) mara nyingi ndicho kiungo dhaifu zaidi.

  • AI kwa Ajili ya Ulinzi na Ugunduzi: Kwa bahati nzuri, uwezo huo huo wa AI unaweza kuboresha sana usalama wa mtandao upande wa ulinzi. Vifaa vya usalama vinavyotumia AI vinaweza kuchambua kiasi kikubwa cha trafiki ya mtandao na kumbukumbu za mifumo kugundua kasoro zinazoweza kuashiria uvunjaji wa usalama.
    Kwa kujifunza tabia “ya kawaida” katika mfumo, mifano ya kujifunza mashine inaweza kuonyesha mifumo isiyo ya kawaida kwa wakati halisi – ikiwezekana kuwakamata wadukuzi wakiwa kazini au kugundua uvunjaji wa data linapotokea. Utambuzi huu wa kasoro ni muhimu hasa kugundua vitisho vipya, vya siri ambavyo vichunguzi vya kawaida vinaweza kushindwa kugundua.

    Kwa mfano, mifumo ya AI inaweza kufuatilia mifumo ya kuingia mtumiaji au upatikanaji wa data katika kampuni na kutoa tahadhari kwa timu za usalama ikiwa itagundua jaribio la upatikanaji lisilo la kawaida au mtumiaji akipakua kiasi kikubwa cha data (ambacho kinaweza kuashiria tishio la ndani au nywila zilizoporwa zinatumiwa). AI pia hutumika kuchuja barua taka na maudhui hatari, ambapo hujifunza kutambua barua pepe za ulaghai au programu hatari kwa sifa zao.

    Kwenye eneo la ugunduzi wa udanganyifu, benki na taasisi za kifedha hutumia AI kutathmini miamala mara moja dhidi ya tabia ya kawaida ya mteja na kuzuia ile inayoshukiwa, kuzuia udanganyifu kwa wakati halisi. Matumizi mengine ya ulinzi ni AI kwa usimamizi wa udhaifu – kujifunza mashine kunaweza kuipa kipaumbele udhaifu mkubwa zaidi wa programu kwa ajili ya kurekebishwa kwa kutabiri ni upi unaoweza kutumiwa zaidi, kusaidia mashirika kufunga mifumo kabla ya shambulio kufanyika.

    Muhimu, AI haisababishi kuondolewa kwa wataalamu wa usalama wa binadamu bali huongeza uwezo wao, ikishughulikia uchambuzi mzito wa data na utambuzi wa mifumo ili wachambuzi waweze kuzingatia uchunguzi na majibu. Ushirikiano huu kati ya zana za AI na utaalamu wa binadamu unakuwa msingi wa mkakati wa kisasa wa usalama wa mtandao.

Kwa kifupi, AI inaongeza hatari na pia inatoa njia mpya za kuimarisha kinga. Mashindano haya ya silaha yanahitaji mashirika kubaki na taarifa kuhusu maendeleo ya AI pande zote. Kwa faraja, watoa huduma wengi wa usalama wa mtandao sasa wanajumuisha AI katika bidhaa zao, na serikali zinafadhili utafiti wa ulinzi wa mtandao unaotumia AI.

Hata hivyo, tahadhari inahitajika: kama vile mtu anavyotumia zana yoyote ya usalama, mifumo ya ulinzi wa AI inahitaji tathmini kali kuhakikisha haitadanganywa na washambuliaji (mfano, mshambuliaji anaweza kujaribu kuingiza data ya kupotosha kwa AI ya ulinzi ili kuifanya “kuwe na kipofu” kwa shambulio linaloendelea – aina ya sumu inayolenga mifumo ya usalama). Kwa hivyo, kutekeleza AI kwa usalama wa mtandao kunapaswa kuambatana na uhakiki na usimamizi madhubuti.

AI - Upanga wa Pande Mbili kwa Usalama

Mbinu Bora za Kuweka Usalama wa Data za AI

Kwa kuzingatia hatari mbalimbali, mashirika yanaweza kufanya nini kuhakikisha usalama wa AI na data inayoiendesha? Wataalamu wanapendekeza mbinu ya tabaka nyingi inayojumuisha usalama katika kila hatua ya mzunguko wa maisha wa mfumo wa AI. Hapa kuna mbinu bora zilizochaguliwa kutoka kwa mashirika ya usalama wa mtandao na watafiti:

  • Usimamizi wa Data na Udhibiti wa Upatikanaji: Anza kwa kudhibiti kwa ukali nani anayeweza kupata data za mafunzo ya AI, mifano, na matokeo nyeti. Tumia uthibitishaji na idhini madhubuti kuhakikisha kuwa ni watu au mifumo ya kuaminika tu inayoweza kubadilisha data. Data yote (ikiwa iko huru au inasafirishwa) inapaswa kusimbwa ili kuzuia wizi au kuingiliwa.
    Kurekodi na kukagua upatikanaji wa data ni muhimu kwa uwajibikaji – ikiwa kutatokea tatizo, kumbukumbu zinaweza kusaidia kufuatilia chanzo. Pia, tekeleza kanuni ya upungufu wa ruhusa: kila mtumiaji au sehemu inapaswa kupata data kidogo tu inayohitajika kwa kazi yake.

  • Uhakiki wa Data na Asili: Kabla ya kutumia seti yoyote ya data kwa mafunzo au kuiingiza kwenye AI, hakikisha uadilifu wake. Mbinu kama saini za kidijitali na ukaguzi wa jumla zinaweza kuhakikisha data haijabadilishwa tangu ilipokusanywa. Kudumisha rekodi ya asili (chanzo cha data) husaidia kuaminika – kwa mfano, pendelea data kutoka vyanzo vya kuaminika, vilivyochunguzwa au washirika rasmi.
    Ikiwa unatumia data iliyokusanywa na watu wengi au mtandaoni, fikiria kuikagua dhidi ya vyanzo vingi (mbinu ya “makubaliano”) kugundua kasoro. Baadhi ya mashirika hutumia mazingira ya majaribio kwa data mpya – data inachambuliwa kwa upweke kwa ajili ya ishara zozote za hatari (kama msimbo wa uovu au kasoro dhahiri) kabla haijajumuishwa katika mafunzo.

  • Mbinu Salama za Maendeleo ya AI: Fuata mbinu salama za uandishi wa programu na utekelezaji zinazolenga AI. Hii inamaanisha kushughulikia si tu udhaifu wa kawaida wa programu, bali pia udhaifu maalum wa AI. Kwa mfano, jumuisha kanuni za “faragha kwa muundo” na “usalama kwa muundo”: tengeneza mfano wako wa AI na mnyororo wa data ukiwa na kinga tangu mwanzo, badala ya kuziongeza baadaye.
    Miongozo ya UK/ Marekani kwa maendeleo salama ya AI inapendekeza kutumia uundaji wa hatari wakati wa hatua za kubuni ili kutabiri jinsi mtu anavyoweza kushambulia mfumo wako wa AI. Wakati wa maendeleo ya mfano, tumia mbinu za kupunguza athari za data iliyotiwa sumu – njia moja ni kugundua kasoro kwenye seti ya mafunzo, ili ikiwa asilimia 5 ya data inamwambia mfano mambo ya kushangaza au hatari, uigundue kabla ya mafunzo.

    Njia nyingine ni mafunzo thabiti ya mfano: kuna algoriti zinazoweza kufanya mifano isiwe nyeti sana kwa kasoro au kelele za kupotosha (mfano kwa kuongeza mabadiliko madogo kwenye data ya mafunzo ili mfano ujifunze kuwa imara). Ukaguzi wa mara kwa mara wa msimbo na majaribio ya usalama (pamoja na mazoezi ya timu nyekundu ambapo wachunguzi hujaribu kuvunja mfumo wa AI) ni muhimu kwa AI kama ilivyo kwa programu nyingine muhimu.

  • Ufuatiliaji na Utambuzi wa Kasoro: Baada ya utekelezaji, fuatilia mara kwa mara ingizo na matokeo ya mfumo wa AI kwa ishara za kuingiliwa au mabadiliko. Weka tahadhari kwa mifumo isiyo ya kawaida – kwa mfano, ikiwa ghafla maombi mengi ya aina moja yasiyo ya kawaida yanapiga mfano wako wa AI (ambayo inaweza kuashiria jaribio la sumu au wizi), au ikiwa mfano unaanza kutoa matokeo ya kushangaza wazi. Mifumo ya utambuzi wa kasoro inaweza kuendesha kazi hii kwa usiri.
    Ufuatiliaji pia unapaswa kujumuisha vipimo vya ubora wa data; ikiwa usahihi wa mfano kwa data mpya unaanza kushuka ghafla, hiyo inaweza kuwa ishara ya mabadiliko ya data au shambulio la sumu lisiloonekana, na inahitaji uchunguzi. Ni busara kufunza tena au kusasisha mifano mara kwa mara kwa data mpya ili kupunguza mabadiliko ya asili na kutumia maboresho ikiwa udhaifu mpya wa algoriti ya AI unatambuliwa.

  • Mipango ya Majibu na Urejeshaji wa Tukio: Licha ya juhudi bora, uvunjaji au kushindwa kunaweza kutokea. Mashirika yanapaswa kuwa na mpango wazi wa majibu kwa matukio maalum kwa mifumo ya AI. Ikiwa kutatokea uvunjaji wa data, utaudhibiti vipi na kuwajulisha wahusika waliathirika?
    Ikiwa utagundua data yako ya mafunzo ilitiwa sumu, je, una seti za data za akiba au matoleo ya awali ya mfano ya kurudi nyuma? Kupanga kwa hali mbaya zaidi kunahakikisha shambulio kwa AI halidhoofishi shughuli zako kwa muda mrefu. Hifadhi nakala za data muhimu na hata matoleo ya mifano mara kwa mara – kwa njia hii, ikiwa mfano wa AI unaotumika utavurugika, unaweza kurudi kwenye hali nzuri inayojulikana.

    Kwenye matumizi yenye hatari kubwa, baadhi ya mashirika huhifadhi mifano ya ziada ya AI au makundi; ikiwa mfano mmoja unaanza kuonyesha tabia za kushangaza, mfano wa pili unaweza kukagua matokeo au kuchukua usindikaji hadi tatizo litakapotatuliwa (hii ni kama mifumo ya kinga ya dharura).

  • Mafunzo na Uhamasishaji wa Wafanyakazi: Usalama wa AI si tu suala la kiufundi; watu wanachukua nafasi kubwa. Hakikisha timu zako za sayansi ya data na maendeleo zimetunzwa kwa mbinu salama. Wanapaswa kufahamu vitisho kama mashambulio ya kupotosha na wasiwe na dhana kuwa data wanayoitoa kwa AI ni salama kila wakati.
    Hamasisitiza utamaduni wa kutoamini kila kitu ambapo mwelekeo wa data usio wa kawaida unahojiwa badala ya kupuuzwa. Pia, waelimishe wafanyakazi wote kuhusu hatari za uhandisi wa kijamii unaotumia AI (kwa mfano, waonyeshe jinsi ya kutambua sauti za deepfake au barua pepe za ulaghai, kwani hizi zinaongezeka kwa AI). Uangalifu wa binadamu unaweza kugundua mambo ambayo mifumo ya kiotomatiki haioni.

Kutekeleza mbinu hizi kunaweza kupunguza kwa kiasi kikubwa hatari za matukio ya usalama wa AI na data. Kwa kweli, mashirika ya kimataifa kama Shirika la Usalama wa Mtandao na Miundombinu la Marekani (CISA) na washirika wanapendekeza hatua kama hizi – kuanzia kuchukua hatua madhubuti za ulinzi wa data na usimamizi wa hatari wa mapema, hadi kuimarisha ufuatiliaji na uwezo wa kugundua vitisho kwa mifumo ya AI.

Katika ushauri wa pamoja wa hivi karibuni, mamlaka zilihimiza mashirika “kulinda data nyeti, ya kipekee, na muhimu katika mifumo inayotumia AI” kwa kutumia hatua kama usimbaji fiche, ufuatiliaji wa asili ya data, na majaribio makali. Muhimu, usalama unapaswa kuwa mchakato endelevu: tathmini za hatari za mara kwa mara zinahitajika kufuatilia kasi ya mabadiliko ya vitisho.

Kama washambuliaji wanavyobuni mbinu mpya kila wakati (hasa kwa msaada wa AI yenyewe), mashirika yanapaswa kusasisha na kuboresha kinga zao kila mara.

Mbinu Bora za Kuweka Usalama wa Data za AI

Juhudi za Kimataifa na Majibu ya Sheria

Serikali na mashirika ya kimataifa kote duniani wanashughulikia masuala ya usalama wa data yanayohusiana na AI kwa lengo la kuanzisha imani katika teknolojia za AI. Tayari tumetaja Sheria ya AI inayokuja ya EU, ambayo itatekeleza masharti ya uwazi, usimamizi wa hatari, na usalama wa mtandao kwa mifumo ya AI yenye hatari kubwa. Ulaya pia inachunguza mabadiliko ya sheria za uwajibikaji ili kuwajibisha watoa huduma wa AI kwa kushindwa kwa usalama.

Marekani, Taasisi ya Kitaifa ya Viwango na Teknolojia (NIST) imeunda Mfumo wa Usimamizi wa Hatari wa AI kusaidia mashirika kutathmini na kupunguza hatari za AI, ikijumuisha hatari za usalama na faragha. Mfumo wa NIST, uliozinduliwa mwaka 2023, unasisitiza kujenga mifumo ya AI ya kuaminika kwa kuzingatia mambo kama uimara, ufafanuzi, na usalama tangu hatua za kubuni.

Serikali ya Marekani pia imefanya kazi na makampuni makubwa ya AI juu ya ahadi za hiari za usalama wa mtandao – kwa mfano, kuhakikisha mifano inajaribiwa na wataalamu huru (timu nyekundu) kwa ajili ya udhaifu kabla ya kutolewa, na kuwekeza katika mbinu za kufanya matokeo ya AI kuwa salama zaidi.

Ushirikiano wa kimataifa ni mzito katika usalama wa AI. Ushirikiano wa kihistoria ulifanyika mwaka 2023 wakati NCSC ya Uingereza, CISA, FBI, na mashirika kutoka nchi zaidi ya 20 walitoa miongozo ya pamoja kwa maendeleo salama ya AI. Ushauri huu wa kimataifa ulisisitiza kuwa usalama wa AI ni changamoto ya pamoja na kutoa mbinu bora (zilizolingana na kanuni za usalama kwa muundo zilizotajwa awali) kwa mashirika duniani kote.

Ushauri huu ulisisitiza kuwa “usalama unapaswa kuwa hitaji kuu... katika mzunguko mzima wa maisha” ya AI na si jambo la kufikiria baadaye tu. Juhudi kama hizi zinaonyesha utambuzi kuwa vitisho vya AI haviheshimu mipaka, na udhaifu katika mfumo wa AI unaotumiwa sana katika nchi moja unaweza kuathiri dunia nzima.

Zaidi ya hayo, mashirika kama UNESCO yamechukua hatua kwa kuunda kiwango cha kwanza cha kimataifa cha maadili ya AI (2021), ambacho ingawa kina upana, kinajumuisha hoja kali kuhusu usalama na faragha. Mapendekezo ya UNESCO yanaiita serikali na makampuni kuhakikisha “madhara yasiyotakikana (hatari za usalama) pamoja na udhaifu wa mashambulio (hatari za usalama) yanazuia na kushughulikiwa na wahusika wa AI”. Pia yanasisitiza umuhimu wa kuhifadhi ulinzi wa data na haki za binadamu katika muktadha wa AI.

Tunaona mada kama hizi pia katika kanuni za AI za OECD na taarifa za AI za G7: zote zinasisitiza usalama, uwajibikaji, na faragha ya watumiaji kama nguzo muhimu za AI ya kuaminika.

Katika sekta binafsi, kuna mfumo unaokua wa kuzingatia usalama wa AI. Vikundi vya sekta vinashirikiana katika utafiti wa ujifunzaji wa mashine unaopinga mashambulio, na mikutano sasa mara kwa mara hujumuisha vipindi vya “AI Red Teaming” na usalama wa ML. Zana na mifumo ya kusaidia kujaribu mifano ya AI kwa udhaifu kabla ya utekelezaji zinaibuka. Hata mashirika ya viwango yanahusika – ISO inaripotiwa kuwa inafanya kazi kwenye viwango vya usalama wa AI vinavyoweza kuendana na viwango vya usalama wa mtandao vilivyopo.

Kwa mashirika na wataalamu, kuendana na miongozo na viwango hivi vya kimataifa kunakuwa sehemu ya utaratibu wa uangalifu. Hii si tu hupunguza hatari za matukio, bali pia huandaa mashirika kwa kufuata sheria na kujenga imani na watumiaji na wateja. Katika sekta kama afya na fedha, kuonyesha kuwa AI yako ni salama na inazingatia sheria kunaweza kuwa faida ya ushindani.

>>> Inaweza kukusaidia:

Hatari za Kutumia AI

Manufaa ya AI kwa Watu Binafsi na Biashara

Juhudi za Kimataifa na Majibu ya Sheria


Uwezo wa mabadiliko wa AI unakuja pamoja na changamoto kubwa za usalama wa data. Kuhakikisha usalama na uadilifu wa data katika mifumo ya AI si hiari – ni msingi wa mafanikio na kukubalika kwa suluhisho za AI. Kuanzia kulinda faragha ya data binafsi hadi kulinda mifano ya AI dhidi ya kuingiliwa na mashambulio ya kupotosha, inahitajika mbinu kamili inayolenga usalama.

Masuala haya yanahusisha teknolojia, sera, na watu: seti kubwa za data zinapaswa kushughulikiwa kwa uwajibikaji chini ya sheria za faragha; mifano ya AI inahitaji ulinzi dhidi ya mbinu mpya za mashambulio; na watumiaji pamoja na waendelezaji wanapaswa kuwa makini katika enzi ya vitisho vya mtandao vinavyotokana na AI.

Habari njema ni kuwa uelewa wa masuala ya AI na usalama wa data haujawahi kuwa juu zaidi. Serikali, mashirika ya kimataifa, na viongozi wa sekta wanaendelea kuendeleza mifumo na sheria za kuongoza maendeleo salama ya AI. Wakati huo huo, utafiti wa kisasa unaendelea kuboresha uimara wa AI – kuanzia algoriti zinazopinga mifano ya kupotosha hadi mbinu mpya za kuhifadhi faragha za AI (kama ujifunzaji wa pamoja na faragha tofauti) zinazoruhusu kupata maarifa bila kufichua data ghafi.

Kwa kutekeleza mbinu bora – usimbaji fiche thabiti, uhakiki wa data, ufuatiliaji endelevu, na zaidi – mashirika yanaweza kupunguza hatari kwa kiasi kikubwa.

Mwishowe, AI inapaswa kuendelezwa na kutekelezwa kwa mtazamo wa “usalama kwanza”. Kama wataalamu walivyosema, usalama wa mtandao ni sharti la mafanikio kamili ya AI. Mifumo ya AI ikiwa salama, tunaweza kufurahia ufanisi na uvumbuzi wake kwa kujiamini.

Lakini tukipuuzia onyo, uvunjaji wa data, uharibifu wa makusudi, na ukiukaji wa faragha vinaweza kudhoofisha imani ya umma na kusababisha madhara halisi. Katika uwanja huu unaobadilika haraka, kubaki macho na kusasishwa ni muhimu. AI na usalama wa data ni pande mbili za sarafu moja – na kwa kushughulikia kwa pamoja tu tunaweza kufanikisha ahadi ya AI kwa njia salama, yenye uwajibikaji kwa kila mtu.

Marejeo ya Nje
Makala hii imetayarishwa kwa kuzingatia vyanzo vya nje vifuatavyo: