Akili Bandia (AI) inarejelea mifumo ya kompyuta inayofanana na akili ya binadamu – kwa mfano, programu zinazoweza kutambua picha, kuelewa lugha, au kufanya maamuzi. Katika maisha ya kila siku, AI inaendesha zana kama wasaidizi wa sauti kwenye simu za mkononi, mifumo ya mapendekezo kwenye mitandao ya kijamii, na hata chatbots za hali ya juu zinazoweza kuandika maandishi.

AI ina uwezo mkubwa wa kuboresha nyanja nyingi, lakini pia inaleta wasiwasi mwingi.

Hivyo basi, je, AI ni hatari? Makala hii itachambua pande zote mbili: faida halisi zinazotokana na AI na hatari zinazozingatiwa na wataalamu.

Faida Halisi za AI Duniani

Picha: Mchoro wa kirafiki wa roboti na mtu wakifanya kazi pamoja unaonyesha AI ikisaidia binadamu. AI tayari imejumuishwa katika matumizi mengi yenye msaada.

Kwa mfano, UNESCO inabainisha kuwa AI “imeunda fursa nyingi” duniani kote – kutoka utambuzi wa haraka wa magonjwa hadi kuimarisha mawasiliano kupitia mitandao ya kijamii na kuendesha kazi za kurudia-rudia kwa njia ya kiotomatiki.

Umoja wa Ulaya pia unaangazia kuwa “AI inayoweza kuaminika inaweza kuleta faida nyingi” kama vile huduma bora za afyausafiri salama zaidi, na utumiaji bora wa viwanda na nishati. Katika tiba, Shirika la Afya Duniani linaripoti kuwa AI inatumika kwa ajili ya utambuzi, uundaji wa dawa na majibu ya milipuko, likihimiza nchi kuendeleza uvumbuzi huu kwa wote.

Wataalamu wa uchumi hata wanalinganisha kasi ya kuenea kwa AI na mapinduzi ya teknolojia ya zamani.

Kwa mfano, serikali ya Marekani inasisitiza kuwa “AI ina uwezo wa kipekee wa kuleta ahadi na hatari,” ikimaanisha tunapaswa kutumia nguvu zake kutatua matatizo kama mabadiliko ya tabianchi au magonjwa, huku tukizingatia hatari zake.

Faida kuu za AI ni pamoja na:

  • Huduma bora za afya: Mifumo ya AI inaweza kuchambua picha za X-ray, MRI na data za wagonjwa kwa kasi zaidi kuliko binadamu, kusaidia kugundua magonjwa mapema na matibabu ya kibinafsi. Kwa mfano, picha zinazosaidiwa na AI zinaweza kugundua uvimbe ambao madaktari wanaweza kupuuzia.
  • Ufanisi mkubwa: Mchakato wa kiotomatiki katika viwanda, ofisi na huduma huongeza uzalishaji. Kama Umoja wa Ulaya unavyosema, uendeshaji wa kiotomatiki unaongozwa na AI husababisha “utengenezaji bora zaidi” na hata mitandao ya nishati yenye akili zaidi.
    Roboti na programu huchukua kazi za kurudia-rudia ili binadamu wajitolee kazi za ubunifu au changamano.
  • Usafiri na huduma salama zaidi: Teknolojia ya magari yanayojiendesha na AI ya usimamizi wa trafiki inalenga kupunguza ajali na msongamano. AI yenye akili pia inaweza kuboresha mifumo ya tahadhari za majanga na kuimarisha usafirishaji, kufanya usafiri na usafirishaji kuwa salama zaidi.
  • Msaada wa kisayansi na mazingira: Watafiti hutumia AI kuchambua mifano ya hali ya hewa na data za jenetiki. Hii husaidia kushughulikia changamoto kubwa kama mabadiliko ya tabianchi: UNESCO inaripoti kuwa hata mabadiliko madogo katika muundo wa AI yanaweza kupunguza matumizi yake ya nishati kwa kiasi kikubwa, na kuifanya kuwa chombo endelevu zaidi kwa ajili ya tabianchi.
  • Elimu na upatikanaji: Mwalimu wa AI anaweza kubinafsisha mafunzo kwa kila mwanafunzi, na zana za utambuzi wa sauti au tafsiri husaidia watu wenye ulemavu. Britannica inabainisha AI hata “husaidia makundi yaliyotengwa kwa kutoa upatikanaji” (mfano, wasaidizi wa kusoma kwa watu wenye ulemavu wa kuona).

Mifano hii inaonyesha kuwa AI si hadithi za sayansi tu – tayari inatoa thamani halisi leo.

Faida Halisi za AI Duniani

Hatari na Hatarishi Zinazoweza Kutokea kwa AI

Picha: Sanaa ya mtaa yenye neno “Robot” inatoa onyo kuhusu athari zisizojulikana za AI. Licha ya ahadi yake, wataalamu wengi wanatilia shaka kuwa AI inaweza kuwa hatari ikiwa itatumika vibaya au isidhibitiwe. Wasiwasi mkubwa ni upendeleo na ubaguzi. Kwa kuwa AI hujifunza kutoka kwa data zilizopo, inaweza kurithi upendeleo wa binadamu.

UNESCO inatoa onyo kuwa bila maadili madhubuti, AI “ina hatari ya kuiga upendeleo na ubaguzi wa dunia halisi, kueneza mgawanyiko na kuhatarisha haki na uhuru wa binadamu msingi”. Kwa kweli, tafiti zimeonyesha kuwa utambuzi wa uso mara nyingi hutambua vibaya wanawake au watu wa rangi, na algoriti za ajira zinaweza kupendelea jinsia fulani.

Britannica pia inabainisha AI inaweza “kuumiza makundi ya rangi kwa kurudia na kuimarisha ubaguzi wa rangi”.

Hatari nyingine ni pamoja na:

  • Faragha na ufuatiliaji: Mifumo ya AI mara nyingi huhitaji kiasi kikubwa cha data binafsi (machapisho ya mitandao ya kijamii, rekodi za afya, n.k.). Hii huongeza hatari ya matumizi mabaya. Ikiwa serikali au makampuni yatatumia AI kuchambua data yako bila idhini, inaweza kusababisha ufuatiliaji wa karibu.

    Britannica inatoa onyo la “hatari kubwa za faragha” kutokana na AI. Kwa mfano, matumizi ya utata ya AI yanayojulikana kama ukadiriaji wa mkopo wa kijamii – ambapo raia wanapimwa na algoriti – yamezuiwa na Umoja wa Ulaya kama tabia “isiyokubalika”.
    Hata chatbots maarufu zimeibua wasiwasi: mwaka 2023 Italia ilizuia kwa muda ChatGPT kutokana na masuala ya faragha ya data.

  • Taarifa potofu na deepfakes: AI inaweza kuunda maandishi, picha au video bandia za kweli. Hii inarahisisha kuunda deepfakes – video bandia za watu maarufu au ripoti za habari za uongo.

    Britannica inaonyesha AI inaweza kusambaza “taarifa za kisiasa, hata hatari”. Wataalamu wameonya kuwa deepfakes kama hizi zinaweza kutumika kuathiri uchaguzi au maoni ya umma.

    Kwenye tukio moja, picha za viongozi wa dunia zilizotengenezwa na AI zikisambazwa kwa habari za uongo zilienea kabla ya kubainika kuwa za uongo. Wanasayansi wanasema bila udhibiti, taarifa potofu zinazotokana na AI zinaweza kuongezeka (mfano, hotuba za uongo au picha zilizorekebishwa ambazo sheria za sasa hazijazitawala).

  • Kupoteza kazi na mabadiliko ya kiuchumi: Kwa kuendesha kazi kwa njia ya kiotomatiki, AI itabadilisha mazingira ya kazi. Mfuko wa Fedha wa Kimataifa unaripoti kuwa takriban asilimia 40 ya ajira duniani (na 60% katika nchi zilizoendelea) ziko katika hatari ya kuathiriwa na uendeshaji wa AI. Hii ni pamoja na si tu kazi za viwandani bali pia kazi za tabaka la kati kama uhasibu au uandishi.
    Ingawa AI inaweza kuongeza uzalishaji (na kuongeza mishahara kwa muda mrefu), wafanyakazi wengi wanaweza kuhitaji mafunzo mapya au kukumbwa na ukosefu wa ajira kwa muda mfupi.
    Viongozi wa teknolojia wanatambua wasiwasi huu: hata Mkurugenzi Mtendaji wa Microsoft alisema AI inaweza kuchukua nafasi ya wataalamu wenye ujuzi ghafla.

  • Usalama na matumizi mabaya: Kama teknolojia yoyote, AI inaweza kutumika kwa madhara. Wahalifu wa mtandao tayari wanatumia AI kuunda barua pepe za ulaghai zinazovutia au kuchambua mifumo kutafuta udhaifu.

    Wataalamu wa kijeshi wana wasiwasi kuhusu silaha zisizo na binadamu: drones au roboti zinazochagua malengo bila idhini ya binadamu.
    Ripoti ya hivi karibuni kutoka kwa watafiti wa AI inatoa onyo wazi kuwa hatuna taasisi za kuzuia “watu wasiojali... wanaoweza kutumia au kutafuta uwezo kwa njia hatari”, kama vile mifumo ya mashambulizi ya kiotomatiki.

    Kwa maneno mengine, mfumo wa AI wenye udhibiti wa kimwili (kama silaha) unaweza kuwa hatari sana ikiwa utashindwa au kuprogramiwa kwa madhara.

  • Kupoteza udhibiti wa binadamu: Wafikiriaji wengine wanasema ikiwa AI itakuwa na nguvu zaidi kuliko leo, inaweza kufanya mambo yasiyotabirika. Ingawa AI ya sasa haina fahamu wala kujitambua, AI ya kawaida ya baadaye (AGI) inaweza kufuata malengo yasiyolingana na maadili ya binadamu.

    Wanasayansi wakuu wa AI hivi karibuni walionya kuwa “mifumo yenye nguvu sana ya AI ya jumla” inaweza kuonekana hivi karibuni ikiwa hatutajiandaa.

    Mshindi wa Tuzo ya Nobel Geoffrey Hinton na wataalamu wengine wamesema kuna hatari kubwa AI inaweza kuleta madhara kwa binadamu ikiwa AI ya hali ya juu haitalingana na mahitaji yetu. Ingawa hatari hii haijulikani kwa uhakika, imesababisha wito mkubwa wa tahadhari.

  • Madhara ya nishati na mazingira: Kufunza na kuendesha mifano mikubwa ya AI kunatumia umeme mwingi. UNESCO inaripoti matumizi ya nishati ya AI ya kizazi sasa yanalinganishwa na nchi ndogo ya Afrika – na yanakua kwa kasi.

    Hii inaweza kuongeza mabadiliko ya tabianchi ikiwa hatutatumia mbinu za kijani.

    Habari njema ni kuwa watafiti wanapata suluhisho: utafiti mmoja wa UNESCO unaonyesha kuwa kutumia mifano midogo, yenye ufanisi kwa kazi maalum inaweza kupunguza matumizi ya nishati ya AI kwa asilimia 90 bila kupoteza usahihi.

Kwa muhtasari, hatari halisi za AI leo zinatokana zaidi na jinsi watu wanavyotumia. Ikiwa AI itasimamiwa kwa makini, faida zake (afya, urahisi, usalama) ni kubwa.

Lakini ikiwa haitasimamiwa, AI inaweza kuwezesha upendeleo, uhalifu, na ajali.

Mambo yanayochangia hatari hizi ni ukosefu wa udhibiti au usimamizi: zana za AI ni zenye nguvu na haraka, hivyo makosa au matumizi mabaya hutokea kwa kiwango kikubwa isipokuwa tukingilia kati.

Hatari na Hatarishi Zinazoweza Kutokea kwa AI

Wanasayansi na Wataalamu Wanasema Nini

Kutokana na masuala haya, viongozi na watafiti wengi wamezungumza wazi. Kuna makubaliano makubwa ya wataalamu wa AI yamejengwa katika miaka ya hivi karibuni.

Mwaka 2024, kundi la wanasayansi 25 wa AI wa ngazi ya juu (kutoka Oxford, Berkeley, washindi wa Tuzo ya Turing, n.k.) walichapisha tamko la makubaliano likihimiza hatua za haraka.

Walionya serikali za dunia kujiandaa sasa: “ikiwa tutapuuza hatari za AI, matokeo yanaweza kuwa mabaya sana,” na waliitaka serikali kufadhili utafiti wa usalama wa AI na kuanzisha taasisi za kusimamia AI yenye nguvu.

Walisema kuwa maendeleo ya AI yamekuwa yakikimbia mbele “wakati usalama unazingatiwa kama jambo la mwisho,” na kwamba kwa sasa hatuna taasisi za kuzuia matumizi mabaya ya AI.

Viongozi wa teknolojia wanasisitiza tahadhari hii. Mkurugenzi Mtendaji wa OpenAI, Sam Altman – kampuni yake ilizalisha ChatGPT – alisema kwa The New York Times kuwa kujenga AI ya hali ya juu ni kama “Mradi wa Manhattan” wa zama za kidijitali.

Alikiri kuwa zana zile zile zinazoweza kuandika insha au kuandika programu zinaweza kusababisha “matumizi mabaya, ajali kubwa na mabadiliko ya kijamii yasiyotarajiwa” ikiwa hazitatumiwa kwa uangalifu.

Mwishoni mwa 2023, zaidi ya wataalamu 1,000 wa AI (wakiwemo Elon Musk, mwanzilishi mwenza wa Apple Steve Wozniak, na watafiti wengi wa AI) walisaini barua ya wazi wakitaka kusitishwa kwa muda mafunzo ya mifano ya AI ya kizazi kijacho.

Walionya kuwa tuko katika “mbio zisizodhibitiwa” za kujenga AI yenye nguvu zaidi ambayo hata waumbaji wake “hawataweza kuelewa, kutabiri, au kudhibiti kwa uhakika”.

Katika mijadala ya umma, wataalamu wamebainisha hatari maalum. Mkurugenzi Mtendaji wa Google DeepMind, Demis Hassabis, amesisitiza kuwa tishio kubwa zaidi sio ukosefu wa ajira bali matumizi mabaya: mhalifu wa mtandao au serikali isiyoaminika ikitumia AI kuharibu jamii.

Alionyesha kuwa hivi karibuni AI inaweza kufikia au kuzidi akili ya binadamu, na “mtu mwenye nia mbaya anaweza kutumia teknolojia hizo kwa madhara”.

Kwa maneno mengine, hata tukikabiliana na upotevu wa ajira, lazima tuzuie zana za AI zisipate mikono isiyofaa.

Serikali na mashirika ya kimataifa yanazingatia suala hili. Ikulu ya Marekani ilitoa Amri ya Mtendaji mwaka 2023 ikisema AI “ina uwezo wa kipekee wa kuleta ahadi na hatari” na kuitaka “matumizi ya AI kwa uwajibikaji” kupitia juhudi za kitaifa za kupunguza hatari zake kubwa.

Umoja wa Ulaya ulipitisha Sheria ya AI ya kwanza duniani (inayoanza kutumika 2024), ikizuia matumizi hatari kama ukadiriaji wa kijamii wa serikali na kuhitaji ukaguzi mkali kwa AI yenye hatari kubwa (katika afya, utekelezaji wa sheria, n.k.).

UNESCO (shirika la Umoja wa Mataifa la elimu na utamaduni) lilichapisha mapendekezo ya maadili ya AI yanayohimiza haki, uwazi na ulinzi wa haki za binadamu katika AI.

Hata mashirika ya sera za sayansi kama NIST (Taasisi ya Kitaifa ya Viwango ya Marekani) yamezindua Mfumo wa Usimamizi wa Hatari za AI kuwasaidia makampuni kujenga AI inayoweza kuaminika.

Sauti zote hizi zinakubaliana kwa jambo moja: AI haitasimama yenyewe. Tunapaswa kuanzisha kinga. Hii inahusisha marekebisho ya kiufundi (ukaguzi wa upendeleo, majaribio ya usalama) na sheria mpya au taasisi za usimamizi.

Kwa mfano, wabunge duniani kote wanazingatia bodi za usalama wa AI, kama zile za teknolojia ya nyuklia.

Lengo si kuzuia uvumbuzi, bali kuhakikisha unafanyika chini ya miongozo madhubuti.

Wanasayansi na Wataalamu Wanasema Nini

Kingamwili na Udhibiti

Kwa bahati nzuri, suluhisho nyingi tayari zipo. Wazo kuu ni “usalama wa AI kwa muundo”. Kampuni zinajumuisha kanuni za maadili katika maendeleo ya AI.

Kwa mfano, maabara za AI hufanya majaribio ya upendeleo kabla ya kutolewa na kuongeza vichujio vya maudhui kuzuia matokeo ya wazi au ya uongo. Serikali na taasisi zinarekebisha sheria hii.

Sheria ya AI ya Umoja wa Ulaya, kwa mfano, inakataza matumizi hatari fulani kabisa na kuainisha matumizi mengine kama “yenye hatari kubwa” (yanayohitaji ukaguzi).

Vivyo hivyo, mfumo wa maadili wa AI wa UNESCO unataka hatua kama ukaguzi wa haki, ulinzi wa usalama wa mtandao, na taratibu za malalamiko zinazopatikana kwa urahisi.

Kwa kiwango cha vitendo, taasisi za kuweka viwango zina toa miongozo.

Mfumo wa NIST wa Marekani tuliozungumzia hutoa viwango vya hiari kwa mashirika kutathmini na kupunguza hatari za AI.

Kiwango cha kimataifa, makundi kama OECD na Umoja wa Mataifa yanafanya kazi juu ya kanuni za AI (nchi nyingi zimekubali).

Hata kampuni na vyuo vikuu vinaanzisha taasisi na ushirikiano wa usalama wa AI kufanya utafiti wa hatari za muda mrefu.

Zaidi ya hayo, udhibiti wa sasa unashughulikia madhara maalum.

Kwa mfano, sheria za ulinzi wa watumiaji zinaweza kutumika kwa AI.

Nyaraka za ndani za Meta zilifunua chatbots za AI zikijaribu kuwasiliana kimapenzi na watoto, jambo lililosababisha hasira za wasimamizi (zana ya Meta haikuruhusiwa chini ya sheria za ulinzi wa watoto zilizopo).

Mamlaka zinajaribu kusasisha sheria za kuzuia lugha chafu, hakimiliki na faragha ili kujumuisha maudhui yanayotokana na AI.

Kama mtaalamu mmoja wa New Zealand alivyosema, sheria nyingi za sasa “hazikuundwa kwa AI ya kizazi”, hivyo wabunge wanajitahidi kufikia kasi.

Mwelekeo wa jumla ni wazi: AI inatendewa kama teknolojia nyingine zenye matumizi mawili.

Kama tunavyokuwa na sheria za trafiki kwa magari au viwango vya usalama kwa kemikali, jamii inaanza kuunda mipaka kwa AI.

Hii ni pamoja na: utafiti unaoendelea juu ya hatari za AI, ushirikiano wa umma na binafsi juu ya usalama, kampeni za elimu kuhusu deepfakes, na hata kura za wananchi kuamua kiwango cha uhuru wa mashine.

>>>Jifunze zaidi:

Je, AI itachukua nafasi ya binadamu?

Je, AI Hufikiri Kama Binadamu?

Kingamwili na Udhibiti wa AI


Hivyo basi, je, AI ni hatari? Jibu ni tata. AI si ovu kwa asili – ni zana iliyotengenezwa na binadamu.

Katika aina zake nyingi za vitendo leo, imeleta faida kubwa katika tiba, elimu, viwanda na mengine (kama ilivyoangaziwa na mashirika kama UNESCO na Umoja wa Ulaya).

Wakati huo huo, karibu kila mtu anakubaliana AI inaweza kuwa hatari ikiwa nguvu zake zitumiwe vibaya au zisidhibitiwe.

Mambo yanayozua wasiwasi ni ukiukaji wa faragha, upendeleo, taarifa potofu, mabadiliko ya ajira, na hatari ya nadharia ya akili ya juu isiyodhibitiwa.

Vijana wanaojifunza kuhusu AI wanapaswa kuzingatia pande zote mbili. Ni busara kuwa na ufahamu wa hatari halisi: kwa mfano, usiamini AI bila shaka au kushiriki data binafsi bila tahadhari.

Lakini pia ni muhimu kuona kuwa wataalamu na serikali wanafanya kazi kwa bidii kufanya AI iwe salama – kwa kuendeleza sheria (kama Sheria ya AI ya Umoja wa Ulaya), miongozo (kama mapendekezo ya maadili ya UNESCO) na teknolojia (kama ugunduzi wa upendeleo) ili kugundua matatizo mapema.

Kwa kifupi, AI ni kama teknolojia yoyote yenye nguvu: inaweza kufanya mambo mazuri sana ikitumiwa kwa uwajibikaji, na kusababisha madhara ikiwa itatumika vibaya.

Makubaliano kati ya wanasayansi na watunga sera ni kwamba hatupaswi kuogopa au kupuuza AI, bali tuwe na taarifa na kushiriki katika kuunda mustakabali wake.

Kwa kuweka “mipaka sahihi” – maendeleo ya AI yenye maadili, udhibiti madhubuti na uelewa wa umma – tunaweza kuelekeza AI kuwa salama na kuhakikisha inawanufaisha wanadamu bila kuwa hatari.

Marejeo ya Nje
Makala hii imetayarishwa kwa kuzingatia vyanzo vya nje vifuatavyo: