Akili Bandia (AI) sasa imejumuishwa katika kila kitu kuanzia wasaidizi wa simu mahiri na vichwa vya habari vya mitandao ya kijamii hadi huduma za afya na usafiri. Teknolojia hizi zinaleta faida isiyokuwa ya kawaida, lakini pia zina hatari na changamoto kubwa.
Wataalamu na taasisi za kimataifa wanatoa onyo kwamba bila miongozo madhubuti ya maadili, AI inaweza kurudia upendeleo na ubaguzi wa dunia halisi, kuchangia uharibifu wa mazingira, kutishia haki za binadamu, na kuimarisha ukosefu wa usawa uliopo.
Katika makala hii, tuchunguze pamoja na INVIAI hatari za kutumia AI katika maeneo yote na aina zote za AI – kuanzia chatbots na algorithmi hadi roboti – kulingana na maarifa kutoka vyanzo rasmi na vya kimataifa.
- 1. Upendeleo na Ubaguzi katika Mifumo ya AI
- 2. Hatari za Upotoshaji wa Taarifa na Deepfake
- 3. Vitisho kwa Faragha na Ufuatiliaji wa Umma
- 4. Makosa ya Usalama na Madhara Yasiyokusudiwa
- 5. Kupoteza Ajira na Mvurugo wa Kiuchumi
- 6. Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama
- 7. Umilitarishaji na Silaha Zinazojiendesha
- 8. Kukosekana kwa Uwajibikaji na Uwazi
- 9. Kukusanyika kwa Nguvu na Ukosefu wa Usawa
- 10. Madhara ya Mazingira ya AI
- 11. Hatari za Muda Mrefu na za Kimaisha
Upendeleo na Ubaguzi katika Mifumo ya AI
Hatari kubwa ya AI ni kuimarisha upendeleo na ubaguzi usio wa haki. Mifano ya AI hujifunza kutoka kwa data inayoweza kuonyesha ubaguzi wa kihistoria au ukosefu wa usawa; matokeo yake, mfumo wa AI unaweza kutendea watu tofauti kulingana na rangi, jinsia, au sifa nyingine kwa njia zinazodumisha ukosefu wa haki.
Kwa mfano, “AI isiyofanya kazi vizuri kwa madhumuni ya jumla inaweza kusababisha madhara kupitia maamuzi yenye upendeleo kuhusu sifa zilizolindwa kama rangi, jinsia, tamaduni, umri, na ulemavu,” kulingana na ripoti ya kimataifa kuhusu usalama wa AI.
Algorithmi zenye upendeleo zinazotumika katika ajira, mikopo, au ulinzi wa sheria tayari zimesababisha matokeo yasiyo sawa yanayowadhuru makundi fulani kwa njia isiyo haki. Mamlaka za kimataifa kama UNESCO zinaonya kwamba bila hatua za usawa, AI inahatarisha “kurudia upendeleo na ubaguzi wa dunia halisi, kueneza mgawanyiko na kutishia haki na uhuru wa binadamu msingi”. Kuhakikisha mifumo ya AI inafunzwa kwa data mbalimbali, za uwakilishi na kukaguliwa kwa upendeleo ni muhimu kuzuia ubaguzi wa kiotomatiki.
Hatari za Upotoshaji wa Taarifa na Deepfake
Uwezo wa AI kuzalisha maandishi, picha, na video za kweli sana umeibua hofu ya mafuriko ya taarifa potofu. AI ya kizazi inaweza kutengeneza makala za habari za uongo zinazoshawishi, picha bandia, au video za deepfake ambazo ni vigumu kutofautisha na ukweli.
Ripoti ya Hatari za Ulimwengu 2024 ya Jukwaa la Uchumi Duniani inatambua “taarifa zilizodanganywa na kubadilishwa” kama hatari kubwa zaidi ya muda mfupi duniani, ikibainisha kwamba AI inazidi “kuimarisha taarifa zilizodanganywa na kupotoshwa ambazo zinaweza kutegemeza jamii.”
Kwa kweli, upotoshaji na taarifa potofu zinazochochewa na AI ni moja ya “changamoto kubwa kabisa kwa mchakato wa kidemokrasia” – hasa kwa mabilioni ya watu wanaotarajiwa kupiga kura katika uchaguzi ujao. Vyombo vya habari vya bandia kama video za deepfake na sauti zilizokopiwa kwa AI vinaweza kutumiwa kama silaha kusambaza propaganda, kuiga watu maarufu, au kufanya udanganyifu.
Maafisa wanatoa onyo kwamba wadanganyifu wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, na kufanya iwe rahisi kuzusha maudhui ya uongo mitandao ya kijamii na kusababisha machafuko. Hatari ni mazingira ya taarifa yenye cinism ambapo raia hawawezi kuamini wanachokiona au kusikia, na hivyo kudhoofisha mijadala ya umma na demokrasia.
Vitisho kwa Faragha na Ufuatiliaji wa Umma
Matumizi makubwa ya AI yanazua wasiwasi mkubwa kuhusu faragha. Mifumo ya AI mara nyingi huhitaji kiasi kikubwa cha data binafsi – kuanzia nyuso na sauti zetu hadi tabia za ununuzi na mahali tulipo – ili kufanya kazi kwa ufanisi. Bila kinga madhubuti, data hii inaweza kutumiwa vibaya au kuibiwa.
Kwa mfano, utambuzi wa uso na algorithmi za utabiri zinaweza kuwezesha ufuatiliaji wa kila kona, kufuatilia kila hatua ya mtu au kupima tabia zao bila ridhaa. Mapendekezo ya maadili ya AI ya UNESCO yanatoa onyo wazi kwamba “mifumo ya AI haipaswi kutumika kwa ajili ya alama za kijamii au ufuatiliaji wa umma kwa wingi.” Matumizi kama haya yanachukuliwa kuwa hatari zisizokubalika.
Zaidi ya hayo, uchambuzi wa data binafsi unaotegemea AI unaweza kufichua maelezo ya karibu kuhusu maisha yetu, kuanzia hali ya afya hadi imani za kisiasa, na hivyo kutishia haki ya faragha. Mamlaka za ulinzi wa data zinaeleza kwamba faragha ni “haki muhimu kwa ulinzi wa heshima ya binadamu, uhuru na uwezo wa mtu binafsi” ambayo inapaswa kuheshimiwa katika mzunguko mzima wa mfumo wa AI.
Ikiwa maendeleo ya AI yatazidi kanuni za faragha, watu binafsi wanaweza kupoteza udhibiti wa taarifa zao. Jamii inapaswa kuhakikisha kuwepo kwa usimamizi madhubuti wa data, taratibu za ridhaa, na mbinu za kuhifadhi faragha ili teknolojia za AI zisizibadilike kuwa zana za ufuatiliaji usio na mipaka.
Makosa ya Usalama na Madhara Yasiyokusudiwa
Ingawa AI inaweza kuendesha maamuzi na kazi za kimwili kwa ufanisi wa hali ya juu, pia inaweza kushindwa kwa njia zisizotarajiwa, na kusababisha madhara halisi. Tunamtegemea AI kwa majukumu muhimu ya usalama – kama kuendesha magari, kutambua magonjwa, au kusimamia mitandao ya umeme – lakini mifumo hii si kamilifu.
Hitilafu, data za mafunzo zenye kasoro, au hali zisizotarajiwa zinaweza kusababisha AI kufanya makosa hatari. AI ya gari linalojiendesha inaweza kumtambua vibaya mtembeaji, au AI ya matibabu inaweza kupendekeza tiba isiyo sahihi, na kusababisha madhara makubwa.
Kutambua hili, miongozo ya kimataifa inasisitiza kwamba madhara yasiyotakikana na hatari za usalama kutoka AI zinapaswa kutabiriwa na kuzuiwa: “Madhara yasiyotakikana (hatari za usalama), pamoja na udhaifu wa mashambulizi (hatari za usalama wa mtandao) yanapaswa kuepukwa na kushughulikiwa katika mzunguko mzima wa mifumo ya AI ili kuhakikisha usalama wa binadamu, mazingira na mifumo ya ikolojia.”
Kwa maneno mengine, mifumo ya AI lazima itestwe kwa kina, ifuatiliwe, na iundwe na kinga za makosa ili kupunguza uwezekano wa hitilafu. Kutegemea sana AI pia kunaweza kuwa hatari – ikiwa watu wataanza kuamini maamuzi ya kiotomatiki bila kuchunguza, huenda wasingeingilie kati kwa wakati inapokosea.
Kuhakikisha usimamizi wa binadamu ni muhimu sana. Katika matumizi yenye hatari kubwa (kama huduma za afya au usafiri), maamuzi ya mwisho yanapaswa kubaki chini ya hukumu ya binadamu, na kama UNESCO inavyosema, “maamuzi ya maisha na kifo hayapaswi kuachwa kwa mifumo ya AI.” Kudumisha usalama na kuaminika kwa AI ni changamoto endelevu, inayohitaji muundo makini na utamaduni wa uwajibikaji kutoka kwa watengenezaji wa AI.
Kupoteza Ajira na Mvurugo wa Kiuchumi
Mabadiliko makubwa ya AI katika uchumi ni panga-panga. Kwa upande mmoja, AI inaweza kuongeza uzalishaji na kuanzisha sekta mpya kabisa; kwa upande mwingine, inaleta hatari ya kupoteza kazi kwa mamilioni ya wafanyakazi kupitia uendeshaji wa kiotomatiki.
Kazi nyingi – hasa zile zinazojumuisha kazi za kawaida, za kurudia-rudia au data rahisi kuchambua – zina hatari ya kuchukuliwa na algorithmi za AI na roboti. Makadirio ya kimataifa ni ya kuogopesha: kwa mfano, Jukwaa la Uchumi Duniani linatabiri kwamba “kazi milioni tisini na mbili zinaweza kupotea ifikapo 2030” kutokana na AI na teknolojia zinazohusiana.
Ingawa uchumi pia unaweza kuunda nafasi mpya za kazi (labda hata zaidi ya zile zitakazopotea kwa muda mrefu), mabadiliko hayo yatakuwa magumu kwa wengi. Kazi zinazopatikana mara nyingi zinahitaji ujuzi tofauti, wa hali ya juu au ziko katika miji fulani ya kiteknolojia, na hivyo wafanyakazi wengi waliopoteza kazi wanaweza kupata ugumu wa kupata nafasi mpya.
Tofauti hii ya uwezo wa wafanyakazi na mahitaji ya kazi mpya zinazotegemea AI inaweza kusababisha ongezeko la ukosefu wa ajira na ukosefu wa usawa ikiwa haitashughulikiwa. Kwa kweli, watunga sera na watafiti wanaonya kwamba maendeleo ya haraka ya AI yanaweza kuleta “mvurugo wa soko la ajira, na ukosefu wa usawa wa nguvu za kiuchumi” kwa kiwango kikubwa.
Makundi fulani yanaweza kuathirika zaidi – kwa mfano, baadhi ya tafiti zinaonyesha kuwa sehemu kubwa ya kazi zinazoshikiliwa na wanawake au wafanyakazi katika nchi zinazoendelea ziko katika hatari kubwa ya uendeshaji wa kiotomatiki. Bila hatua za mapema (kama programu za mafunzo upya, elimu ya ujuzi wa AI, na mifumo ya usaidizi wa kijamii), AI inaweza kupanua pengo la kijamii na kiuchumi, ikaunda uchumi unaotegemea AI ambapo wamiliki wa teknolojia wanapata faida kubwa zaidi.
Kuandaa nguvu kazi kwa athari za AI ni muhimu kuhakikisha faida za uendeshaji wa kiotomatiki zinashirikiwa kwa upana na kuzuia machafuko ya kijamii kutokana na upotevu mkubwa wa ajira.
Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama
AI ni chombo chenye nguvu ambacho kinaweza kutumika kwa madhumuni mabaya kama ilivyo kwa mazuri. Wahalifu wa mtandao na wahalifu wengine tayari wanatumia AI kuboresha mashambulizi yao.
Kwa mfano, AI inaweza kuzalisha barua pepe za ulaghai zilizobinafsishwa sana au ujumbe wa sauti (kwa kunakili sauti ya mtu) ili kumdanganya mtu kufichua taarifa nyeti au kutuma pesa. Pia inaweza kutumika kuendesha udukuzi kwa kugundua udhaifu wa programu kwa wingi au kuunda programu hasidi zinazobadilika ili kuepuka kugunduliwa.
Kituo cha Usalama wa AI kinatambua matumizi mabaya ya AI kama wasiwasi mkubwa, kikibainisha hali kama mifumo ya AI kutumiwa na wahalifu kufanya udanganyifu mkubwa na mashambulizi ya mtandao. Kwa kweli, ripoti iliyotolewa na serikali ya Uingereza ilitoa onyo wazi kwamba “wadanganyifu wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, ushawishi, udanganyifu, na ulaghai”.
Kasi, wingi, na ustadi unaotolewa na AI unaweza kuzidi kinga za jadi – fikiria maelfu ya simu za ulaghai zilizotengenezwa na AI au video za deepfake zinazolenga usalama wa kampuni kwa siku moja.
Zaidi ya uhalifu wa kifedha, pia kuna hatari ya AI kutumika kusaidia kuiba utambulisho, unyanyasaji, au kuunda maudhui hatari (kama vile picha za ngono za deepfake zisizoruhusiwa au propaganda za makundi ya msimamo mkali). Kadri zana za AI zinavyopatikana zaidi, kizuizi cha kufanya uhalifu huu kinapungua, na kusababisha ongezeko la uhalifu unaosaidiwa na AI.
Hii inahitaji mbinu mpya za usalama wa mtandao na utekelezaji wa sheria, kama mifumo ya AI inayoweza kutambua deepfakes au tabia zisizo za kawaida na mifumo ya kisheria iliyosasishwa kushikilia wahalifu kuwajibika. Kwa msingi huo, tunapaswa kutarajia kwamba uwezo wowote AI inao kwa wema, pia unaweza kutumiwa na wahalifu – na kujiandaa ipasavyo.
Umilitarishaji na Silaha Zinazojiendesha
Labda hatari kubwa zaidi ya AI inapotokea katika muktadha wa vita na usalama wa taifa. AI inaingizwa kwa kasi katika mifumo ya kijeshi, ikionyesha uwezekano wa silaha zinazojiendesha (“roboti wauaji”) na maamuzi yanayotegemea AI katika mapigano.
Teknolojia hizi zinaweza kutenda haraka zaidi kuliko binadamu yeyote, lakini kuondoa udhibiti wa binadamu katika matumizi ya nguvu za kuua kuna hatari kubwa. Kuna hatari kwamba silaha inayodhibitiwa na AI inaweza kuchagua lengo lisilo sahihi au kuongeza mizozo kwa njia zisizotarajiwa. Wachunguzi wa kimataifa wanaonya kwamba “kuitumia AI kama silaha za kijeshi” ni tishio linaloongezeka.
Ikiwa mataifa yatazidi kujiandaa na silaha za akili, inaweza kusababisha mbio za silaha zisizostawi. Zaidi ya hayo, AI inaweza kutumika katika vita vya mtandao kushambulia miundombinu muhimu au kusambaza propaganda, na kuchanganya mstari kati ya amani na mzozo.
Umoja wa Mataifa umeonyesha wasiwasi kwamba maendeleo ya AI katika vita, ikiwa yatakuwa mikononi mwa wachache, “yanaweza kulazimishwa kwa watu bila wao kuwa na sauti juu ya jinsi inavyotumika,” na hivyo kudhoofisha usalama na maadili ya kimataifa.
Mifumo ya silaha zinazojiendesha pia inaleta mashaka ya kisheria na maadili – nani atawajibika ikiwa drone ya AI itaua raia kwa bahati mbaya? Je, mifumo hii inazingatia vipi sheria za kibinadamu za kimataifa?
Maswali haya yasiyojibiwa yamesababisha wito wa marufuku au udhibiti mkali wa silaha fulani zinazotegemea AI. Kuhakikisha usimamizi wa binadamu juu ya AI yoyote inayoweza kufanya maamuzi ya maisha na kifo kunachukuliwa kuwa jambo la msingi. Bila hilo, hatari si tu makosa ya kusikitisha uwanjani bali pia kupoteza uwajibikaji wa binadamu katika vita.
Kukosekana kwa Uwajibikaji na Uwazi
Mifumo mingi ya AI ya hali ya juu leo hufanya kazi kama “masanduku meusi” – mantiki yao ya ndani mara nyingi haieleweki hata kwa watengenezaji wake. Ukosefu huu wa uwazi unaleta hatari kwamba maamuzi ya AI hayawezi kufafanuliwa au kupingwa, jambo ambalo ni tatizo kubwa katika nyanja kama sheria, fedha, au huduma za afya ambapo ufafanuzi ni sharti la kisheria au la maadili.
Ikiwa AI inakataza mtu mkopo, kugundua ugonjwa, au kuamua nani atatolewa gerezani, tunataka kujua kwanini. Kwa baadhi ya mifano ya AI (hasa mitandao tata ya neva), kutoa sababu wazi ni vigumu.
Ukosefu wa “uwazi” unaweza kudhoofisha imani na “kunaweza pia kudhoofisha uwezekano wa kupinga maamuzi kwa ufanisi yanayotokana na mifumo ya AI,” anasema UNESCO, “na hivyo kuathiri haki ya kupata kesi ya haki na tiba bora.”
Kwa maneno mengine, ikiwa watumiaji wala wasimamizi hawawezi kuelewa jinsi AI inavyofanya maamuzi, basi ni karibu haiwezekani kumshikilia mtu yeyote kuwajibika kwa makosa au upendeleo unaotokea.
Pengo hili la uwajibikaji ni hatari kubwa: kampuni zinaweza kuepuka kuwajibika kwa kulaumu “algorithmi,” na watu waliathirika wanaweza kubaki bila njia ya kupata haki. Kupambana na hili, wataalamu wanapendekeza mbinu za AI inayoweza kufafanuliwa, ukaguzi wa kina, na masharti ya kisheria yanayohitaji maamuzi ya AI kufuatiliwa hadi mamlaka za binadamu.
Kwa kweli, miongozo ya maadili ya kimataifa inasisitiza kwamba inapaswa “kwa kila wakati iwezekane kuhusisha uwajibikaji wa kimaadili na kisheria” kwa tabia za mifumo ya AI kwa mtu au shirika. Binadamu lazima waendelee kuwa na uwajibikaji wa mwisho, na AI inapaswa kusaidia badala ya kuchukua nafasi ya hukumu ya binadamu katika masuala nyeti. Vinginevyo, tunakumbwa na hatari ya kuunda dunia ambapo maamuzi muhimu hufanywa na mashine zisizoeleweka, jambo linalosababisha ukosefu wa haki.
Kukusanyika kwa Nguvu na Ukosefu wa Usawa
Mapinduzi ya AI hayafanyi kazi kwa usawa duniani – makampuni machache na nchi chache ndizo zinazoongoza maendeleo ya AI ya hali ya juu, jambo ambalo lina hatari zake.
Mifano ya AI ya kisasa inahitaji data nyingi, vipaji, na rasilimali za kompyuta ambazo ni mali ya makampuni makubwa ya teknolojia (na serikali zilizo na fedha nyingi) kwa sasa. Hii imesababisha “mnyororo wa usambazaji ulio mkusanyiko sana, wa kipekee, na uliounganishwa kimataifa unaounga mkono makampuni na nchi chache,” kulingana na Jukwaa la Uchumi Duniani.
Ukusanyaji huu wa nguvu za AI unaweza kusababisha udhibiti wa kipekee wa teknolojia za AI, ukizuia ushindani na uchaguzi wa watumiaji. Pia unaongeza hatari kwamba vipaumbele vya makampuni au mataifa machache vitaunda AI kwa njia ambazo hazizingatii maslahi ya umma kwa ujumla.
Umoja wa Mataifa umebaini “hatari kwamba teknolojia ya AI inaweza kulazimishwa kwa watu bila wao kuwa na sauti juu ya jinsi inavyotumika,” wakati maendeleo yanapokuwa mikononi mwa wachache wenye nguvu.
Kutofautiana huu kunaweza kuongeza ukosefu wa usawa duniani: mataifa na makampuni tajiri yanapiga hatua kwa kutumia AI, wakati jamii maskini hazina upatikanaji wa zana za kisasa na wanakumbwa na upotevu wa ajira bila kufurahia faida za AI. Zaidi ya hayo, sekta ya AI iliyokusanyika inaweza kuzima ubunifu (ikiwa wapya hawawezi kushindana na rasilimali za wamiliki wa sasa) na kuleta hatari za usalama (ikiwa miundombinu muhimu ya AI inadhibitiwa na wachache tu, basi inakuwa sehemu moja tu inayoweza kushindwa au kudanganywa).
Kukabiliana na hatari hii kunahitaji ushirikiano wa kimataifa na labda kanuni mpya za kuleta usawa katika maendeleo ya AI – kwa mfano, kusaidia utafiti wa wazi, kuhakikisha upatikanaji wa haki wa data na rasilimali za kompyuta, na kutunga sera (kama Sheria ya AI ya Umoja wa Ulaya) kuzuia matumizi mabaya ya “walinzi wa AI.” Mazingira ya AI yenye ushirikiano zaidi yangeweza kusaidia kuhakikisha faida za AI zinashirikiwa duniani kote, badala ya kupanua pengo kati ya wenye teknolojia na wasio nayo.
Madhara ya Mazingira ya AI
Mara nyingi haizingatiwi katika mijadala ya hatari za AI ni athari zake kwa mazingira. Maendeleo ya AI, hasa mafunzo ya mifano mikubwa ya kujifunza mashine, hutumia umeme mwingi na nguvu za kompyuta.
Vituo vya data vilivyojaa seva elfu zinazotumia nguvu nyingi vinahitajika kuchakata maelfu ya data ambayo mifumo ya AI hujifunza kutoka kwake. Hii inamaanisha AI inaweza kwa njia isiyo ya moja kwa moja kuchangia utoaji wa kaboni na mabadiliko ya tabianchi.
Ripoti ya hivi karibuni ya shirika la Umoja wa Mataifa iligundua kuwa utoaji wa kaboni usio wa moja kwa moja wa makampuni manne makubwa yanayojikita katika AI uliongezeka kwa wastani wa asilimia 150 kutoka 2020 hadi 2023, hasa kutokana na mahitaji ya nishati ya vituo vya data vya AI.
Kadiri uwekezaji katika AI unavyoongezeka, utoaji wa gesi chafu kutoka kwa mifumo ya AI unatarajiwa kupanda kwa kasi – ripoti ilitabiri kuwa mifumo mikubwa ya AI inaweza kutoa tani zaidi ya milioni 100 za CO₂ kwa mwaka, ikizidisha mzigo kwa miundombinu ya nishati.
Ili kuweka katika muktadha, vituo vya data vinavyotumia AI vinaongeza matumizi ya umeme kwa “mara nne zaidi kuliko ongezeko la jumla la matumizi ya umeme”.
Mbali na utoaji wa kaboni, AI pia inaweza kutumia maji mengi kwa ajili ya kupoza na kusababisha taka za elektroniki wakati vifaa vinapobadilishwa haraka. Ikiwa haitadhibitiwa, athari za AI kwa mazingira zinaweza kudhoofisha juhudi za kimataifa za uendelevu.
Hatari hii inahitaji kufanya AI iwe na ufanisi zaidi wa nishati na kutumia vyanzo vya nishati safi. Watafiti wanatengeneza mbinu za AI za kijani kupunguza matumizi ya nguvu, na baadhi ya makampuni yameahidi kufidia gharama za kaboni za AI. Hata hivyo, bado ni jambo linalotia wasiwasi kwamba haraka ya AI inaweza kuleta gharama kubwa kwa mazingira. Kusawazisha maendeleo ya kiteknolojia na uwajibikaji wa mazingira ni changamoto nyingine ambayo jamii inapaswa kushughulikia tunapoingiza AI kila mahali.
Hatari za Muda Mrefu na za Kimaisha
Zaidi ya hatari za papo hapo, baadhi ya wataalamu wanaonya kuhusu hatari zaidi za muda mrefu na za dhana kutoka AI – ikiwa ni pamoja na uwezekano wa AI ya hali ya juu inayoweza kukua zaidi ya udhibiti wa binadamu. Ingawa mifumo ya AI ya leo ni nyembamba katika uwezo wake, watafiti wanafanya kazi kwa bidii kuelekea AI ya jumla zaidi ambayo inaweza kumzidi binadamu katika nyanja nyingi.
Hii inaleta maswali magumu: ikiwa AI itakuwa na akili zaidi sana au huru, je, inaweza kutenda kwa njia zinazotishia kuwepo kwa binadamu? Ingawa inasikika kama hadithi za sayansi, watu maarufu katika jamii ya teknolojia wameonyesha wasiwasi kuhusu hali za “AI mwizi”, na serikali zinachukua mjadala huu kwa uzito.
Mnamo 2023, Uingereza iliongoza Mkutano wa Kimataifa wa Usalama wa AI kushughulikia hatari za AI za mbele. Makubaliano ya kisayansi hayako sawa – baadhi wanaamini AI yenye akili zaidi iko mbali kwa miongo kadhaa au inaweza kudumishwa kuendana na maadili ya binadamu, wakati wengine wanaona uwezekano mdogo lakini hauwezi kupuuzwa wa matokeo mabaya.
Ripoti ya hivi karibuni ya usalama wa AI ya kimataifa ilibainisha kuwa “wataalamu wana maoni tofauti kuhusu hatari ya binadamu kupoteza udhibiti wa AI kwa njia inayoweza kusababisha matokeo mabaya makubwa.”
Kwa kifupi, kuna kukubaliwa kwamba hatari ya kimaisha kutoka AI, hata ikiwa ni ndogo, haiwezi kupuuzwa kabisa. Matokeo kama hayo yanaweza kuhusisha AI kufuata malengo yake kwa madhara kwa ustawi wa binadamu (mfano wa kawaida ni AI ambayo, ikiwa imepangwa vibaya, inaweza kufanya jambo hatari kwa kiwango kikubwa kwa sababu haijui mantiki ya kawaida au vizingiti vya maadili).
Ingawa hakuna AI ya leo yenye uwezo wa aina hiyo, mwendo wa maendeleo ya AI ni wa haraka na usiotabirika, jambo ambalo ni sababu ya hatari. Kujiandaa kwa hatari za muda mrefu kunamaanisha kuwekeza katika utafiti wa kuoanisha AI (kufanya malengo ya AI yaendane na maadili ya binadamu), kuanzisha makubaliano ya kimataifa juu ya utafiti wa AI wenye hatari kubwa (kama vile mikataba ya silaha za nyuklia au za kibaolojia), na kudumisha usimamizi wa binadamu wakati mifumo ya AI inavyoongezeka uwezo.
Mustakabali wa AI unaahidi kubwa, lakini pia kutokuwa na uhakika – na busara inatuhimiza tuchukue tahadhari hata kwa hatari za uwezekano mdogo lakini zenye athari kubwa katika mipango yetu ya muda mrefu.
>>> Bonyeza kujifunza zaidi: Manufaa ya AI kwa Watu Binafsi na Biashara
AI mara nyingi inalinganishwa na injini yenye nguvu inayoweza kuendesha binadamu mbele – lakini bila breki na mwelekeo, injini hiyo inaweza kupotea njia. Kama tulivyoona, hatari za kutumia AI ni mbalimbali: kuanzia masuala ya papo hapo kama algorithmi zenye upendeleo, habari za uongo, uvamizi wa faragha, na mabadiliko ya ajira, hadi changamoto kubwa za kijamii kama vitisho vya usalama, maamuzi ya “sanduku jeusi,” ukoloni wa Big Tech, mzigo wa mazingira, na hata tishio la mbali la kupoteza udhibiti kwa AI yenye akili zaidi.
Hatari hizi hazimaanishi kwamba tunapaswa kuacha maendeleo ya AI; badala yake, zinaonyesha hitaji la haraka la usimamizi wa AI unaowajibika na maadili thabiti.
Serikali, mashirika ya kimataifa, viongozi wa sekta, na watafiti wanashirikiana zaidi kushughulikia masuala haya – kwa mfano, kupitia mifumo kama Muundo wa Usimamizi wa Hatari za AI wa NIST wa Marekani (kuboresha kuaminika kwa AI), Mapendekezo ya Maadili ya AI ya UNESCO, na Sheria ya AI ya Umoja wa Ulaya.
Juhudi hizi zinakusudia kukuza faida za AI huku zikipunguza madhara yake, kuhakikisha AI inahudumia binadamu na si vinginevyo. Mwishowe, kuelewa hatari za AI ni hatua ya kwanza ya kuzisimamia. Kwa kuwa na taarifa na kushiriki katika jinsi AI inavyotengenezwa na kutumika, tunaweza kusaidia kuelekeza teknolojia hii ya mabadiliko kwa njia salama, ya haki, na yenye manufaa kwa wote.