Hatari za Kutumia AI
Akili Bandia (AI) inaleta faida nyingi lakini pia inaleta hatari nyingi ikiwa itatumika vibaya au bila udhibiti. Kuanzia masuala ya usalama wa data, upotoshaji wa taarifa, ukiukaji wa hakimiliki hadi hatari ya kubadilishwa kwa wafanyakazi, AI inaleta changamoto zinazohitaji kubainishwa na kusimamiwa kwa ufanisi. Kuelewa hatari za kutumia AI husaidia watu binafsi na biashara kutumia teknolojia hii kwa usalama na kwa njia endelevu.
Akili Bandia (AI) sasa imejumuishwa katika kila kitu kuanzia wasaidizi wa simu mahiri na vichwa vya habari vya mitandao ya kijamii hadi huduma za afya na usafiri. Teknolojia hizi zinaleta faida zisizowahi kushuhudiwa, lakini pia zina hatari na changamoto kubwa.
INVIAI hatari za kutumia AI katika maeneo yote na aina zote za AI – kuanzia chatbots na algorithms hadi roboti – kulingana na maarifa kutoka vyanzo rasmi na vya kimataifa.
- 1. Upendeleo na Ubaguzi katika Mifumo ya AI
- 2. Hatari za Taarifa Potofu na Deepfake
- 3. Vitisho kwa Faragha na Ufuatiliaji wa Umma
- 4. Kushindwa kwa Usalama na Madhara Yasiyokusudiwa
- 5. Kubadilishwa kwa Ajira na Mvurugo wa Kiuchumi
- 6. Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama
- 7. Uwezeshaji wa Kijeshi na Silaha Zinazojiendesha
- 8. Ukosefu wa Uwajibikaji na Uwazi
- 9. Mkusanyiko wa Nguvu na Ukosefu wa Usawa
- 10. Athari za Mazingira za AI
- 11. Hatari za Muda Mrefu na za Kimaisha
- 12. Kuongoza Mustakabali wa AI kwa Uwajibikaji
Upendeleo na Ubaguzi katika Mifumo ya AI
Hatari kubwa ya AI ni kuimarisha upendeleo na ubaguzi usio wa haki. Mifano ya AI hujifunza kutoka kwa data inayoweza kuonyesha ubaguzi wa kihistoria au tofauti; matokeo yake, mfumo wa AI unaweza kutendea watu tofauti kulingana na rangi, jinsia, au sifa nyingine kwa njia zinazodumisha ukosefu wa haki.
AI isiyofanya kazi vizuri kwa matumizi ya jumla inaweza kusababisha madhara kupitia maamuzi yenye upendeleo kuhusu sifa zilizo salama kama rangi, jinsia, utamaduni, umri, na ulemavu.
— Ripoti ya Usalama ya AI ya Kimataifa
Vikundi vya kimataifa kama UNESCO vinaonya kuwa bila hatua za usawa, AI inaweza "kuiga upendeleo na ubaguzi wa dunia halisi, kueneza mgawanyiko na kutishia haki na uhuru wa msingi wa binadamu". Kuhakikisha mifumo ya AI inafunzwa kwa data mbalimbali, inayowakilisha na kukaguliwa kwa upendeleo ni muhimu kuzuia ubaguzi wa kiotomatiki.
Upendeleo katika Ajira
Zana za ajira za AI zinaweza kubagua baadhi ya makundi ya watu
Ubaguzi wa Mikopo
Algorithms za kifedha zinaweza kukataa mikopo kwa makundi fulani bila haki
Ukosefu wa Usawa katika Ulinzi wa Sheria
Ulinzi wa sheria unaotegemea AI unaweza kuimarisha upendeleo uliopo

Hatari za Taarifa Potofu na Deepfake
Uwezo wa AI kuzalisha maandishi, picha, na video za kweli sana umeibua hofu ya mafuriko ya taarifa potofu. AI ya Kizazi inaweza kutengeneza makala za habari za uongo, picha bandia, au video za deepfake ambazo ni vigumu kutofautisha na halisi.
Kwa kweli, taarifa potofu na uongo zinazochochewa na AI ni moja ya "changamoto kubwa kabisa kwa mchakato wa kidemokrasia" – hasa kwa mabilioni ya watu wanaotarajiwa kupiga kura katika uchaguzi ujao. Vyombo vya habari vya synthetic kama video za deepfake na sauti zilizokopwa kwa AI vinaweza kutumiwa kusambaza propaganda, kuiga watu maarufu, au kufanya udanganyifu.
Video za Deepfake
Kukopa Sauti
Maafisa wanaonya kuwa watu wenye nia mbaya wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, na kufanya iwe rahisi kujaa mitandao ya kijamii na maudhui ya uongo na kusababisha machafuko. Hatari ni mazingira ya taarifa yenye cinism ambapo raia hawawezi kuamini wanachoona au kusikia, na kudhoofisha mijadala ya umma na demokrasia.

Vitisho kwa Faragha na Ufuatiliaji wa Umma
Matumizi makubwa ya AI yanazua wasiwasi mkubwa wa faragha. Mifumo ya AI mara nyingi inahitaji kiasi kikubwa cha data binafsi – kuanzia uso wetu na sauti hadi tabia za ununuzi na mahali tulipo – ili kufanya kazi kwa ufanisi. Bila kinga madhubuti, data hii inaweza kutumiwa vibaya au kuibiwa.
Kwa mfano, utambuzi wa uso na algorithms za utabiri zinaweza kuwezesha ufuatiliaji wa kila kona, kufuatilia kila hatua ya mtu au kutoa alama za tabia bila ridhaa.
Utambuzi wa Uso
Ufuatiliaji wa watu mara kwa mara katika maeneo ya umma
- Kufuatilia utambulisho
- Uchambuzi wa tabia
Uchambuzi wa Utabiri
Uchambuzi wa AI unaoonyesha maelezo ya karibu ya kibinafsi
- Hali ya afya
- Imani za kisiasa
Alama za Kijamii
Kutoa alama kwa raia kulingana na tabia zao
- Alama za mkopo
- Uzingatiaji wa kijamii
Faragha ni haki muhimu kwa ulinzi wa heshima ya binadamu, uhuru na uwezo wa mtu ambayo inapaswa kuheshimiwa katika mzunguko mzima wa maisha ya mfumo wa AI.
— Mashirika ya Ulinzi wa Data
Ikiwa maendeleo ya AI yatapita kanuni za faragha, watu wanaweza kupoteza udhibiti wa taarifa zao wenyewe. Jamii inapaswa kuhakikisha usimamizi madhubuti wa data, taratibu za ridhaa, na mbinu za kulinda faragha zipo ili teknolojia za AI zisibadilike kuwa zana za ufuatiliaji usio na mipaka.

Kushindwa kwa Usalama na Madhara Yasiyokusudiwa
Ingawa AI inaweza kuendesha maamuzi na kazi za kimwili kwa ufanisi wa hali ya juu, pia inaweza kushindwa kwa njia zisizotarajiwa, na kusababisha madhara halisi. Tunamtrust AI kwa majukumu muhimu ya usalama – kama kuendesha magari, kugundua magonjwa, au kusimamia mitandao ya umeme – lakini mifumo hii si kamilifu.
Hitilafu, data za mafunzo zenye kasoro, au hali zisizotarajiwa zinaweza kusababisha AI kufanya makosa hatari. AI ya gari linalojiendesha inaweza kumtambulisha vibaya mtembeaji, au AI ya matibabu inaweza kupendekeza tiba isiyo sahihi, na kusababisha madhara makubwa.
Magari Yanayojitegemea
AI ya Matibabu
Usimamizi wa Mitandao ya Umeme
Madhara yasiyotakikana (hatari za usalama), pamoja na udhaifu wa mashambulizi (hatari za usalama wa mtandao) yanapaswa kuepukwa na kushughulikiwa katika mzunguko mzima wa maisha ya mifumo ya AI ili kuhakikisha usalama wa binadamu, mazingira na mifumo ya ikolojia.
— Miongozo ya Kimataifa ya AI
Kwa maneno mengine, mifumo ya AI inapaswa kupimwa kwa ukali, kufuatiliwa, na kujengwa na kinga za kushindwa ili kupunguza uwezekano wa hitilafu. Kutegemea sana AI pia kunaweza kuwa hatari – ikiwa watu wataamini maamuzi ya kiotomatiki bila kuchunguza, huenda wasingelea wakati hitilafu itatokea.
Kudumisha usimamizi wa binadamu ni muhimu sana. Katika matumizi yenye hatari kubwa (kama huduma za afya au usafiri), maamuzi ya mwisho yanapaswa kubaki chini ya hukumu ya binadamu. Kudumisha usalama na uaminifu wa AI ni changamoto endelevu, inayohitaji muundo makini na utamaduni wa uwajibikaji kutoka kwa watengenezaji wa AI.

Kubadilishwa kwa Ajira na Mvurugo wa Kiuchumi
Mabadiliko ya AI katika uchumi ni pande mbili. Kwa upande mmoja, AI inaweza kuongeza uzalishaji na kuanzisha sekta mpya kabisa; kwa upande mwingine, inaleta hatari ya kubadilisha mamilioni ya wafanyakazi kupitia uendeshaji wa kiotomatiki.
Kazi nyingi – hasa zile zinazojumuisha kazi za kawaida, za kurudia-rudia au data rahisi kuchambua – zina hatari ya kuchukuliwa na algorithms na roboti za AI.
Kazi za Kawaida
- Kazi za kawaida, za kurudia-rudia
- Majukumu ya uchambuzi wa data
- Kazi za mikono
- Huduma za msingi kwa wateja
Mahitaji Mapya ya Ujuzi
- Ushirikiano na AI
- Ushughulikiaji wa matatizo kwa ubunifu
- Usimamizi wa kiufundi wa AI
- Huduma zinazomlenga binadamu
Ingawa uchumi pia unaweza kuanzisha majukumu mapya (labda hata kazi zaidi kuliko zile zinazopotea kwa muda mrefu), mabadiliko yatakuwa magumu kwa wengi. Kazi zinazopatikana mara nyingi zinahitaji ujuzi tofauti, wa hali ya juu au ziko katika miji fulani ya kiteknolojia, hivyo wafanyakazi wengi waliobadilishwa wanaweza kupata ugumu wa kupata nafasi mpya.
Hii kutokufanana kati ya ujuzi wa wafanyakazi na mahitaji ya kazi mpya zinazotegemea AI kunaweza kusababisha ongezeko la ukosefu wa ajira na ukosefu wa usawa ikiwa haitashughulikiwa. Kwa kweli, watunga sera na watafiti wanaonya kuwa maendeleo ya haraka ya AI yanaweza kuleta "mvurugo wa soko la ajira, na tofauti za nguvu za kiuchumi" kwa kiwango cha mfumo mzima.
Athari kwa Jinsia
Sehemu kubwa ya kazi zinazoshikiliwa na wanawake ziko hatarini kubadilishwa na uendeshaji wa kiotomatiki
Nchi Zinazoendelea
Wafanyakazi katika nchi zinazoendelea wanakabiliwa na hatari kubwa ya uendeshaji wa kiotomatiki
Bila hatua za mapema (kama programu za mafunzo upya, elimu ya ujuzi wa AI, na mifumo ya usaidizi wa kijamii), AI inaweza kuongeza pengo la kijamii na kiuchumi, ikaunda uchumi unaotegemea AI ambapo wamiliki wa teknolojia wanapata faida kubwa zaidi.
Kuandaa wafanyakazi kwa athari za AI ni muhimu kuhakikisha faida za uendeshaji wa kiotomatiki zinashirikiwa kwa upana na kuzuia machafuko ya kijamii kutokana na upotevu mkubwa wa ajira.

Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama
AI ni zana yenye nguvu ambayo inaweza kutumiwa kwa madhumuni mabaya kama ilivyo kwa mazuri. Wahalifu wa mtandao na wahalifu wengine tayari wanatumia AI kuboresha mashambulizi yao.
Kwa mfano, AI inaweza kuzalisha barua pepe za udanganyifu za kibinafsi sana au ujumbe wa sauti (kwa kuiga sauti ya mtu) ili kudanganya watu kufichua taarifa nyeti au kutuma pesa. Pia inaweza kutumika kuendesha udukuzi kwa kugundua udhaifu wa programu kwa wingi au kuunda programu hasidi zinazobadilika ili kuepuka kugunduliwa.
Udanganyifu wa Phishing unaotumia AI
Udukuzi wa Kiotomatiki
Programu Hasidi Zinazobadilika
Watu wenye nia mbaya wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, ushawishi, udanganyifu, na ulaghai.
— Ripoti Iliyoagizwa na Serikali ya Uingereza
Kituo cha Usalama wa AI kinatambua matumizi mabaya ya AI kama wasiwasi mkubwa, kikibainisha hali kama mifumo ya AI kutumiwa na wahalifu kufanya udanganyifu mkubwa na mashambulizi ya mtandao.
Uwezo, kiwango, na ustadi unaotolewa na AI unaweza kuzidi kinga za kawaida – fikiria maelfu ya simu za ulaghai zinazozalishwa na AI au video za deepfake zinazolenga usalama wa kampuni kwa siku moja.
Kadiri zana za AI zinavyopatikana zaidi, kizuizi cha kufanya vitendo hivi vibaya kinapungua, na kusababisha ongezeko la uhalifu unaosaidiwa na AI.
Hii inahitaji mbinu mpya za usalama wa mtandao na utekelezaji wa sheria, kama mifumo ya AI inayoweza kutambua deepfakes au tabia zisizo za kawaida na mifumo ya sheria iliyosasishwa kuwajibisha wahalifu. Kwa msingi huo, tunapaswa kutarajia kuwa uwezo wowote AI inawapatia wateja wake, pia inaweza kuupatia wahalifu – na kujiandaa ipasavyo.

Uwezeshaji wa Kijeshi na Silaha Zinazojiendesha
Labda hatari kubwa zaidi ya AI inapotokea katika muktadha wa vita na usalama wa taifa. AI inaingizwa haraka katika mifumo ya kijeshi, ikionyesha uwezekano wa silaha zinazojiendesha ("roboti wauaji") na maamuzi yanayotegemea AI katika mapigano.
Teknolojia hizi zinaweza kutenda haraka zaidi kuliko binadamu yeyote, lakini kuondoa udhibiti wa binadamu katika matumizi ya nguvu za kuua kuna hatari kubwa. Kuna hatari kwamba silaha inayodhibitiwa na AI inaweza kuchagua lengo lisilo sahihi au kuongeza migogoro kwa njia zisizotarajiwa.
Makosa ya Kuchagua Lengo
Silaha za AI zinaweza kutambua vibaya raia kama wapiganaji
- Utambuzi wa uwongo
- Vifo vya raia
Kuongezeka kwa Migogoro
Mifumo ya kujitegemea inaweza kuongeza hali zaidi ya migogoro bila kusudi la binadamu
- Mizunguko ya majibu ya haraka
- Kuongezeka kwa migogoro isiyodhibitiwa
Ikiwa mataifa yatashindana kujiandaa na silaha za akili, inaweza kusababisha mbio za silaha zisizodhibitiwa. Zaidi ya hayo, AI inaweza kutumika katika vita vya mtandao kushambulia miundombinu muhimu au kusambaza propaganda, na kuchanganya mstari kati ya amani na mgogoro.
Maendeleo ya AI katika vita, ikiwa yatakuwa mikononi mwa wachache, yanaweza kulazimishwa kwa watu bila wao kuwa na sauti juu ya jinsi inavyotumika, na kudhoofisha usalama na maadili ya dunia.
— Umoja wa Mataifa
Mifumo ya silaha zinazojiendesha pia inaleta mashaka ya kisheria na maadili – nani atawajibika ikiwa drone ya AI itaua raia kwa makosa? Mifumo hii inazingatiaje sheria za kibinadamu za kimataifa?
Maswali haya yasiyo na majibu yamesababisha wito wa marufuku au udhibiti mkali wa silaha fulani zinazotumia AI. Kuhakikisha usimamizi wa binadamu juu ya AI inayoweza kufanya maamuzi ya maisha na kifo kunazingatiwa kuwa jambo la msingi. Bila hilo, hatari si tu makosa ya kusikitisha uwanjani bali pia kupoteza uwajibikaji wa binadamu katika vita.

Ukosefu wa Uwajibikaji na Uwazi
Mifumo mingi ya AI ya hali ya juu leo hufanya kazi kama "sanduku zito" – mantiki yao ya ndani mara nyingi haieleweki hata kwa watengenezaji wake. Ukosefu huu wa uwazi unasababisha hatari kwamba maamuzi ya AI hayawezi kufafanuliwa au kupingwa, jambo ambalo ni tatizo kubwa katika nyanja kama sheria, fedha, au huduma za afya ambapo ufafanuzi ni sharti la kisheria au la maadili.
Ikiwa AI itakataa mkopo kwa mtu, kugundua ugonjwa, au kuamua nani anayeachiliwa kutoka gerezani, tunataka kujua kwa nini. Kwa baadhi ya mifano ya AI (hasa mitandao tata ya neva), kutoa sababu wazi ni vigumu.
Maamuzi ya Kisheria
Huduma za Kifedha
Huduma za Afya
Ukosefu wa uwazi pia unaweza kudhoofisha uwezekano wa kupinga maamuzi kwa ufanisi yanayotokana na matokeo ya mifumo ya AI, na hivyo kuathiri haki ya kupata kesi ya haki na tiba bora.
— UNESCO
Kwa maneno mengine, ikiwa watumiaji wala wasimamizi hawawezi kuelewa jinsi AI inavyofanya maamuzi, basi ni vigumu kabisa kumwajibisha mtu yeyote kwa makosa au upendeleo yanayotokea.
Kupambana na hili, wataalamu wanapendekeza mbinu za AI inayoweza kufafanuliwa, ukaguzi mkali, na masharti ya kisheria yanayohitaji maamuzi ya AI kufuatiliwa hadi mamlaka ya binadamu.
Kwa kweli, miongozo ya maadili ya kimataifa inasisitiza kuwa inapaswa "kuwa rahisi kila wakati kuhusisha uwajibikaji wa maadili na kisheria" kwa tabia za mifumo ya AI kwa mtu au shirika. Binadamu lazima bado wawe na uwajibikaji wa mwisho, na AI inapaswa kusaidia badala ya kuchukua nafasi ya hukumu ya binadamu katika masuala nyeti. Vinginevyo, tunakumbwa na hatari ya kuunda dunia ambapo maamuzi muhimu hufanywa na mashine zisizoeleweka, jambo linalosababisha ukosefu wa haki.

Mkusanyiko wa Nguvu na Ukosefu wa Usawa
Mapinduzi ya AI hayafanyiki kwa usawa duniani – makampuni machache na nchi chache ndizo zinazoongoza katika maendeleo ya AI ya hali ya juu, jambo linaloleta hatari zake mwenyewe.
Mifano ya AI ya kisasa inahitaji data nyingi, vipaji, na rasilimali za kompyuta ambazo ni mali ya makampuni makubwa ya teknolojia (na serikali zilizo na fedha nyingi) pekee kwa sasa.
Hii imesababisha mnyororo wa usambazaji uliojikita, wa kipekee, na uliounganishwa kimataifa unaowapendelea makampuni na nchi chache.
— Jukwaa la Uchumi Duniani
Monopoli ya Data
Maktaba kubwa za data zinazosimamiwa na taasisi chache
Rasilimali za Kompyuta
Miundombinu ya gharama kubwa inayopatikana kwa makampuni makubwa ya teknolojia pekee
Mkusanyiko wa Vipaji
Watafiti wakuu wa AI wamo katika taasisi chache
Mkusanyiko huu wa nguvu za AI unaweza kusababisha udhibiti wa kibepari wa teknolojia za AI, ukizuia ushindani na uchaguzi wa watumiaji. Pia unaongeza hatari kwamba vipaumbele vya makampuni au mataifa machache vitaunda AI kwa njia ambazo hazizingatii maslahi ya umma kwa ujumla.
Ukosefu huu unaweza kuongeza tofauti za kimataifa: mataifa na makampuni tajiri yanapiga hatua kwa kutumia AI, wakati jamii maskini hazipati zana za kisasa na wanakumbwa na upotevu wa ajira bila kufurahia faida za AI.
Zaidi ya hayo, sekta ya AI iliyojikita inaweza kuzima ubunifu (ikiwa wapya hawawezi kushindana na rasilimali za wamiliki wa sasa) na kuleta hatari za usalama (ikiwa miundombinu muhimu ya AI inasimamiwa na taasisi chache, basi inakuwa sehemu moja tu inayoweza kushindwa au kudanganywa).
Kushughulikia hatari hii kunahitaji ushirikiano wa kimataifa na labda kanuni mpya za kuleta usawa katika maendeleo ya AI – kwa mfano, kusaidia utafiti wa wazi, kuhakikisha upatikanaji wa haki wa data na rasilimali za kompyuta, na kutunga sera (kama Sheria ya AI ya Umoja wa Ulaya) kuzuia matumizi mabaya na "walinzi wa AI." Mazingira ya AI yanayojumuisha zaidi yangeweza kusaidia kuhakikisha faida za AI zinashirikiwa duniani kote, badala ya kuongeza pengo kati ya wenye teknolojia na wasio nayo.

Athari za Mazingira za AI
Kawaida haizingatiwi katika mijadala ya hatari za AI ni athari zake kwa mazingira. Maendeleo ya AI, hasa mafunzo ya mifano mikubwa ya kujifunza mashine, hutumia umeme mwingi na nguvu za kompyuta.
Kituo cha data kilichojazwa na seva elfu zinazotumia nguvu nyingi kinahitajika kusindika maelfu ya data ambayo mifumo ya AI hujifunza kutoka. Hii inamaanisha AI inaweza kuchangia moja kwa moja uchafuzi wa hewa na mabadiliko ya tabianchi.
Kadiri uwekezaji katika AI unavyoongezeka, uzalishaji wa gesi chafu kutoka kwa mifano ya AI unatarajiwa kuongezeka kwa kasi – ripoti ilikadiria kuwa mifumo mikuu ya AI inaweza kutoa tani zaidi ya milioni 100 za CO₂ kwa mwaka, ikizidisha mzigo kwa miundombinu ya nishati.
Kukisia, vituo vya data vinavyotumia AI vinaendesha matumizi ya umeme kwa kasi ya "mara nne zaidi kuliko ongezeko la jumla la matumizi ya umeme".
Matumizi ya Nishati
Matumizi ya Maji
Takataka za Kielektroniki
Mbali na uzalishaji wa kaboni, AI pia inaweza kutumia maji mengi kwa ajili ya kupoza na kusababisha taka za kielektroniki kutokana na mabadiliko ya haraka ya vifaa. Ikiwa haitadhibitiwa, athari za AI kwa mazingira zinaweza kudhoofisha juhudi za kimataifa za uendelevu.
Hatari hii inahitaji AI iwe na ufanisi zaidi wa nishati na kutumia vyanzo vya nishati safi. Watafiti wanatengeneza mbinu za AI za kijani kupunguza matumizi ya nguvu, na baadhi ya makampuni yameahidi kulipia gharama za kaboni za AI. Hata hivyo, bado ni wasiwasi mkubwa kwamba haraka ya AI inaweza kuleta gharama kubwa kwa mazingira. Kusawazisha maendeleo ya kiteknolojia na uwajibikaji wa mazingira ni changamoto nyingine ambayo jamii inapaswa kushughulikia tunapoingiza AI kila mahali.

Hatari za Muda Mrefu na za Kimaisha
Zaidi ya hatari za papo hapo, baadhi ya wataalamu wanaonya kuhusu hatari za muda mrefu na za kimaisha kutoka AI – ikiwa ni pamoja na uwezekano wa AI ya hali ya juu inayoweza kukua zaidi ya udhibiti wa binadamu. Ingawa mifumo ya AI ya leo ni nyembamba kwa uwezo wake, watafiti wanafanya kazi kwa bidii kuelekea AI ya jumla zaidi ambayo inaweza kumzidi binadamu katika nyanja nyingi.
Hii inaleta maswali magumu: ikiwa AI itakuwa na akili zaidi sana au kujitegemea, inaweza kutenda kwa njia zinazotishia kuwepo kwa binadamu? Ingawa inasikika kama hadithi za sayansi, watu mashuhuri katika jamii ya teknolojia wameonyesha wasiwasi kuhusu hali za "AI hatari", na serikali zinashughulikia mjadala huu kwa umakini.
Wataalamu wana maoni tofauti kuhusu hatari ya binadamu kupoteza udhibiti wa AI kwa njia inayoweza kusababisha matokeo mabaya makubwa.
— Ripoti ya Usalama ya AI ya Kimataifa
Makubaliano ya kisayansi hayako sawa – baadhi wanaamini AI yenye akili sana iko mbali kwa miongo au inaweza kuendeshwa kwa maadili ya binadamu, wakati wengine wanaona uwezekano mdogo lakini si sifuri wa matokeo mabaya makubwa.
Hali za Hatari za Kimaisha Zinazowezekana
- AI kufuata malengo yasiyolingana na maadili ya binadamu
- Maendeleo ya haraka na yasiyodhibitiwa ya uwezo wa AI
- Kupoteza udhibiti wa binadamu katika maamuzi muhimu
- Mifumo ya AI kuboresha malengo hatarishi
Hatua za Usalama za Muda Mrefu
- Utafiti wa kulinganisha malengo ya AI na maadili ya binadamu
- Mikataba ya kimataifa kuhusu utafiti wa AI wenye hatari kubwa
- Kudumisha usimamizi wa binadamu AI inapokuwa na uwezo zaidi
- Kutunga mifumo ya usimamizi wa AI duniani
Kwa kifupi, kuna kutambua kuwa hatari ya kimaisha kutoka AI, hata kama ni ndogo, haiwezi kupuuzwa kabisa. Matokeo kama hayo yanaweza kuhusisha AI kufuata malengo yake kwa madhara kwa ustawi wa binadamu (mfano wa kawaida ni AI ambayo, ikiwa itapangwa vibaya, itaamua kufanya jambo hatari kwa kiwango kikubwa kwa sababu haijui maadili au mipaka ya kawaida).
Ingawa hakuna AI ya leo yenye uwezo wa kiwango hicho, mwendo wa maendeleo ya AI ni haraka na hauwezi kutabirika, jambo ambalo ni hatari yenyewe.
Kujiandaa kwa hatari za muda mrefu kunamaanisha kuwekeza katika utafiti wa kulinganisha malengo ya AI (kuhakikisha malengo ya AI yanaendana na maadili ya binadamu), kuanzisha mikataba ya kimataifa kuhusu utafiti wa AI wenye hatari kubwa (kama mikataba ya silaha za nyuklia au kibaolojia), na kudumisha usimamizi wa binadamu AI inapoongezeka uwezo.
Baadaye ya AI inaahidi kubwa, lakini pia kutokuwa na uhakika – na busara inatuhimiza tuchukulie hatari za chini za uwezekano lakini zenye athari kubwa katika mipango yetu ya muda mrefu.

Kuongoza Mustakabali wa AI kwa Uwajibikaji
AI mara nyingi hulinganishwa na injini yenye nguvu inayoweza kuendesha binadamu mbele – lakini bila breki na mwelekeo, injini hiyo inaweza kupotea njia. Kama tulivyoona, hatari za kutumia AI ni mbalimbali: kuanzia masuala ya papo hapo kama algorithms zenye upendeleo, habari za uongo, uvamizi wa faragha, na mabadiliko ya ajira, hadi changamoto za kijamii kama vitisho vya usalama, maamuzi ya "sanduku zito," monopoli za Big Tech, mzigo wa mazingira, na hata hatari ya mbali ya kupoteza udhibiti kwa AI yenye akili sana.
Serikali, mashirika ya kimataifa, viongozi wa sekta, na watafiti wanazidi kushirikiana kushughulikia masuala haya – kwa mfano, kupitia mifumo kama:
- Muundo wa Usimamizi wa Hatari wa AI wa NIST wa Marekani (kuboresha kuaminika kwa AI)
- Mapendekezo ya Maadili ya AI ya UNESCO duniani
- Sheria ya AI ya Umoja wa Ulaya
Juhudi hizi zinalenga kukuza faida za AI huku zikipunguza hasara zake, kuhakikisha AI inahudumia binadamu na si vinginevyo.
Kuelewa hatari za AI ni hatua ya kwanza ya kuzisimamia. Kwa kuwa na taarifa na kushiriki katika jinsi AI inavyotengenezwa na kutumika, tunaweza kusaidia kuiongoza teknolojia hii ya mabadiliko kwa njia salama, ya haki, na yenye manufaa kwa wote.
Maoni 0
Weka Maoni
Hapajapatikana maoni. Kuwa wa kwanza kutoa maoni!