Hatari za Kutumia AI

Akili Bandia (AI) inaleta faida nyingi lakini pia inaleta hatari nyingi ikiwa itatumika vibaya au bila udhibiti. Kuanzia masuala ya usalama wa data, upotoshaji wa taarifa, ukiukaji wa hakimiliki hadi hatari ya kubadilishwa kwa wafanyakazi, AI inaleta changamoto zinazohitaji kubainishwa na kusimamiwa kwa ufanisi. Kuelewa hatari za kutumia AI husaidia watu binafsi na biashara kutumia teknolojia hii kwa usalama na kwa njia endelevu.

Akili Bandia (AI) sasa imejumuishwa katika kila kitu kuanzia wasaidizi wa simu mahiri na vichwa vya habari vya mitandao ya kijamii hadi huduma za afya na usafiri. Teknolojia hizi zinaleta faida zisizowahi kushuhudiwa, lakini pia zina hatari na changamoto kubwa.

Onyo Muhimu: Wataalamu na taasisi za kimataifa wanaonya kuwa bila miongozo madhubuti ya maadili, AI inaweza kuiga upendeleo na ubaguzi wa dunia halisi, kuchangia uharibifu wa mazingira, kutishia haki za binadamu, na kuongeza tofauti zilizopo.

INVIAI hatari za kutumia AI katika maeneo yote na aina zote za AI – kuanzia chatbots na algorithms hadi roboti – kulingana na maarifa kutoka vyanzo rasmi na vya kimataifa.

Upendeleo na Ubaguzi katika Mifumo ya AI

Hatari kubwa ya AI ni kuimarisha upendeleo na ubaguzi usio wa haki. Mifano ya AI hujifunza kutoka kwa data inayoweza kuonyesha ubaguzi wa kihistoria au tofauti; matokeo yake, mfumo wa AI unaweza kutendea watu tofauti kulingana na rangi, jinsia, au sifa nyingine kwa njia zinazodumisha ukosefu wa haki.

AI isiyofanya kazi vizuri kwa matumizi ya jumla inaweza kusababisha madhara kupitia maamuzi yenye upendeleo kuhusu sifa zilizo salama kama rangi, jinsia, utamaduni, umri, na ulemavu.

— Ripoti ya Usalama ya AI ya Kimataifa
Athari Halisi: Algorithms zenye upendeleo zinazotumika katika ajira, mikopo, au ulinzi wa sheria tayari zimesababisha matokeo yasiyo sawa yanayowadhuru makundi fulani kwa njia isiyo haki.

Vikundi vya kimataifa kama UNESCO vinaonya kuwa bila hatua za usawa, AI inaweza "kuiga upendeleo na ubaguzi wa dunia halisi, kueneza mgawanyiko na kutishia haki na uhuru wa msingi wa binadamu". Kuhakikisha mifumo ya AI inafunzwa kwa data mbalimbali, inayowakilisha na kukaguliwa kwa upendeleo ni muhimu kuzuia ubaguzi wa kiotomatiki.

Upendeleo katika Ajira

Zana za ajira za AI zinaweza kubagua baadhi ya makundi ya watu

Ubaguzi wa Mikopo

Algorithms za kifedha zinaweza kukataa mikopo kwa makundi fulani bila haki

Ukosefu wa Usawa katika Ulinzi wa Sheria

Ulinzi wa sheria unaotegemea AI unaweza kuimarisha upendeleo uliopo

Upendeleo na Ubaguzi katika Mifumo ya AI
Upendeleo na Ubaguzi katika Mifumo ya AI

Hatari za Taarifa Potofu na Deepfake

Uwezo wa AI kuzalisha maandishi, picha, na video za kweli sana umeibua hofu ya mafuriko ya taarifa potofu. AI ya Kizazi inaweza kutengeneza makala za habari za uongo, picha bandia, au video za deepfake ambazo ni vigumu kutofautisha na halisi.

Onyo la Hatari ya Ulimwengu: Ripoti ya Hatari za Ulimwengu ya Jukwaa la Uchumi Duniani 2024 inatambua "taarifa zilizodanganywa na kubadilishwa" kama hatari kubwa zaidi ya muda mfupi duniani, ikibainisha kuwa AI "inaongeza taarifa zilizodanganywa na kupotoshwa ambazo zinaweza kutegemeza jamii."

Kwa kweli, taarifa potofu na uongo zinazochochewa na AI ni moja ya "changamoto kubwa kabisa kwa mchakato wa kidemokrasia" – hasa kwa mabilioni ya watu wanaotarajiwa kupiga kura katika uchaguzi ujao. Vyombo vya habari vya synthetic kama video za deepfake na sauti zilizokopwa kwa AI vinaweza kutumiwa kusambaza propaganda, kuiga watu maarufu, au kufanya udanganyifu.

Video za Deepfake

Video bandia za kweli sana zinazoweza kuiga mtu yeyote, zinazotumika kwa udanganyifu au siasa.

Kukopa Sauti

Sauti za AI zinazoweza kuiga mzungumzaji yeyote kwa madhumuni ya udanganyifu.

Maafisa wanaonya kuwa watu wenye nia mbaya wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, na kufanya iwe rahisi kujaa mitandao ya kijamii na maudhui ya uongo na kusababisha machafuko. Hatari ni mazingira ya taarifa yenye cinism ambapo raia hawawezi kuamini wanachoona au kusikia, na kudhoofisha mijadala ya umma na demokrasia.

Hatari za Taarifa Potofu na Deepfake katika AI
Hatari za Taarifa Potofu na Deepfake katika AI

Vitisho kwa Faragha na Ufuatiliaji wa Umma

Matumizi makubwa ya AI yanazua wasiwasi mkubwa wa faragha. Mifumo ya AI mara nyingi inahitaji kiasi kikubwa cha data binafsi – kuanzia uso wetu na sauti hadi tabia za ununuzi na mahali tulipo – ili kufanya kazi kwa ufanisi. Bila kinga madhubuti, data hii inaweza kutumiwa vibaya au kuibiwa.

Onyo la UNESCO: Mifumo ya AI haipaswi kutumika kwa alama za kijamii au ufuatiliaji wa umma kwa wingi. Matumizi kama haya yanachukuliwa kuwa hatari zisizokubalika.

Kwa mfano, utambuzi wa uso na algorithms za utabiri zinaweza kuwezesha ufuatiliaji wa kila kona, kufuatilia kila hatua ya mtu au kutoa alama za tabia bila ridhaa.

Utambuzi wa Uso

Ufuatiliaji wa watu mara kwa mara katika maeneo ya umma

  • Kufuatilia utambulisho
  • Uchambuzi wa tabia

Uchambuzi wa Utabiri

Uchambuzi wa AI unaoonyesha maelezo ya karibu ya kibinafsi

  • Hali ya afya
  • Imani za kisiasa

Alama za Kijamii

Kutoa alama kwa raia kulingana na tabia zao

  • Alama za mkopo
  • Uzingatiaji wa kijamii

Faragha ni haki muhimu kwa ulinzi wa heshima ya binadamu, uhuru na uwezo wa mtu ambayo inapaswa kuheshimiwa katika mzunguko mzima wa maisha ya mfumo wa AI.

— Mashirika ya Ulinzi wa Data

Ikiwa maendeleo ya AI yatapita kanuni za faragha, watu wanaweza kupoteza udhibiti wa taarifa zao wenyewe. Jamii inapaswa kuhakikisha usimamizi madhubuti wa data, taratibu za ridhaa, na mbinu za kulinda faragha zipo ili teknolojia za AI zisibadilike kuwa zana za ufuatiliaji usio na mipaka.

Vitisho kwa Faragha na Ufuatiliaji wa Umma
Vitisho kwa Faragha na Ufuatiliaji wa Umma

Kushindwa kwa Usalama na Madhara Yasiyokusudiwa

Ingawa AI inaweza kuendesha maamuzi na kazi za kimwili kwa ufanisi wa hali ya juu, pia inaweza kushindwa kwa njia zisizotarajiwa, na kusababisha madhara halisi. Tunamtrust AI kwa majukumu muhimu ya usalama – kama kuendesha magari, kugundua magonjwa, au kusimamia mitandao ya umeme – lakini mifumo hii si kamilifu.

Hitilafu, data za mafunzo zenye kasoro, au hali zisizotarajiwa zinaweza kusababisha AI kufanya makosa hatari. AI ya gari linalojiendesha inaweza kumtambulisha vibaya mtembeaji, au AI ya matibabu inaweza kupendekeza tiba isiyo sahihi, na kusababisha madhara makubwa.

Magari Yanayojitegemea

Kutambua vibaya watembeaji au vizingiti na kusababisha ajali

AI ya Matibabu

Uchunguzi au mapendekezo ya tiba yasiyo sahihi yenye madhara makubwa

Usimamizi wa Mitandao ya Umeme

Kushindwa kwa mifumo kusababisha kukatika kwa umeme au uharibifu wa miundombinu

Madhara yasiyotakikana (hatari za usalama), pamoja na udhaifu wa mashambulizi (hatari za usalama wa mtandao) yanapaswa kuepukwa na kushughulikiwa katika mzunguko mzima wa maisha ya mifumo ya AI ili kuhakikisha usalama wa binadamu, mazingira na mifumo ya ikolojia.

— Miongozo ya Kimataifa ya AI
Kanuni Muhimu: Maamuzi ya maisha na kifo hayapaswi kuachwa kwa mifumo ya AI. Kudumisha usimamizi wa binadamu ni muhimu katika matumizi yenye hatari kubwa.

Kwa maneno mengine, mifumo ya AI inapaswa kupimwa kwa ukali, kufuatiliwa, na kujengwa na kinga za kushindwa ili kupunguza uwezekano wa hitilafu. Kutegemea sana AI pia kunaweza kuwa hatari – ikiwa watu wataamini maamuzi ya kiotomatiki bila kuchunguza, huenda wasingelea wakati hitilafu itatokea.

Kudumisha usimamizi wa binadamu ni muhimu sana. Katika matumizi yenye hatari kubwa (kama huduma za afya au usafiri), maamuzi ya mwisho yanapaswa kubaki chini ya hukumu ya binadamu. Kudumisha usalama na uaminifu wa AI ni changamoto endelevu, inayohitaji muundo makini na utamaduni wa uwajibikaji kutoka kwa watengenezaji wa AI.

Kushindwa kwa Usalama na Madhara Yasiyokusudiwa katika AI
Kushindwa kwa Usalama na Madhara Yasiyokusudiwa katika AI

Kubadilishwa kwa Ajira na Mvurugo wa Kiuchumi

Mabadiliko ya AI katika uchumi ni pande mbili. Kwa upande mmoja, AI inaweza kuongeza uzalishaji na kuanzisha sekta mpya kabisa; kwa upande mwingine, inaleta hatari ya kubadilisha mamilioni ya wafanyakazi kupitia uendeshaji wa kiotomatiki.

Kazi nyingi – hasa zile zinazojumuisha kazi za kawaida, za kurudia-rudia au data rahisi kuchambua – zina hatari ya kuchukuliwa na algorithms na roboti za AI.

Makadirio ya Kuhuzunisha: Jukwaa la Uchumi Duniani linakadiria kuwa kazi milioni tisini na mbili zitabadilishwa kufikia mwaka 2030 kutokana na AI na teknolojia zinazohusiana.
Wafanyakazi wa Sasa

Kazi za Kawaida

  • Kazi za kawaida, za kurudia-rudia
  • Majukumu ya uchambuzi wa data
  • Kazi za mikono
  • Huduma za msingi kwa wateja
Uchumi Unaotegemea AI

Mahitaji Mapya ya Ujuzi

  • Ushirikiano na AI
  • Ushughulikiaji wa matatizo kwa ubunifu
  • Usimamizi wa kiufundi wa AI
  • Huduma zinazomlenga binadamu

Ingawa uchumi pia unaweza kuanzisha majukumu mapya (labda hata kazi zaidi kuliko zile zinazopotea kwa muda mrefu), mabadiliko yatakuwa magumu kwa wengi. Kazi zinazopatikana mara nyingi zinahitaji ujuzi tofauti, wa hali ya juu au ziko katika miji fulani ya kiteknolojia, hivyo wafanyakazi wengi waliobadilishwa wanaweza kupata ugumu wa kupata nafasi mpya.

Hii kutokufanana kati ya ujuzi wa wafanyakazi na mahitaji ya kazi mpya zinazotegemea AI kunaweza kusababisha ongezeko la ukosefu wa ajira na ukosefu wa usawa ikiwa haitashughulikiwa. Kwa kweli, watunga sera na watafiti wanaonya kuwa maendeleo ya haraka ya AI yanaweza kuleta "mvurugo wa soko la ajira, na tofauti za nguvu za kiuchumi" kwa kiwango cha mfumo mzima.

Athari kwa Jinsia

Sehemu kubwa ya kazi zinazoshikiliwa na wanawake ziko hatarini kubadilishwa na uendeshaji wa kiotomatiki

Nchi Zinazoendelea

Wafanyakazi katika nchi zinazoendelea wanakabiliwa na hatari kubwa ya uendeshaji wa kiotomatiki

Bila hatua za mapema (kama programu za mafunzo upya, elimu ya ujuzi wa AI, na mifumo ya usaidizi wa kijamii), AI inaweza kuongeza pengo la kijamii na kiuchumi, ikaunda uchumi unaotegemea AI ambapo wamiliki wa teknolojia wanapata faida kubwa zaidi.

Kuandaa wafanyakazi kwa athari za AI ni muhimu kuhakikisha faida za uendeshaji wa kiotomatiki zinashirikiwa kwa upana na kuzuia machafuko ya kijamii kutokana na upotevu mkubwa wa ajira.

Kubadilishwa kwa Ajira na Mvurugo wa Kiuchumi katika AI
Kubadilishwa kwa Ajira na Mvurugo wa Kiuchumi katika AI

Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama

AI ni zana yenye nguvu ambayo inaweza kutumiwa kwa madhumuni mabaya kama ilivyo kwa mazuri. Wahalifu wa mtandao na wahalifu wengine tayari wanatumia AI kuboresha mashambulizi yao.

Kwa mfano, AI inaweza kuzalisha barua pepe za udanganyifu za kibinafsi sana au ujumbe wa sauti (kwa kuiga sauti ya mtu) ili kudanganya watu kufichua taarifa nyeti au kutuma pesa. Pia inaweza kutumika kuendesha udukuzi kwa kugundua udhaifu wa programu kwa wingi au kuunda programu hasidi zinazobadilika ili kuepuka kugunduliwa.

Udanganyifu wa Phishing unaotumia AI

Barua pepe za udanganyifu za kibinafsi sana zinazozalishwa kwa wingi

Udukuzi wa Kiotomatiki

Mifumo ya AI inayogundua udhaifu haraka kuliko wadukuzi wa binadamu

Programu Hasidi Zinazobadilika

Programu hasidi zinazojibadilisha ili kuepuka kugunduliwa

Watu wenye nia mbaya wanaweza kutumia AI kwa kampeni kubwa za taarifa potofu, ushawishi, udanganyifu, na ulaghai.

— Ripoti Iliyoagizwa na Serikali ya Uingereza

Kituo cha Usalama wa AI kinatambua matumizi mabaya ya AI kama wasiwasi mkubwa, kikibainisha hali kama mifumo ya AI kutumiwa na wahalifu kufanya udanganyifu mkubwa na mashambulizi ya mtandao.

Uwezo, kiwango, na ustadi unaotolewa na AI unaweza kuzidi kinga za kawaida – fikiria maelfu ya simu za ulaghai zinazozalishwa na AI au video za deepfake zinazolenga usalama wa kampuni kwa siku moja.

Vitisho Vinavyoibuka: AI inatumika kusaidia wizi wa utambulisho, unyanyasaji, na uundaji wa maudhui hatari kama picha za ngono za deepfake zisizoruhusiwa au propaganda kwa makundi ya msimamo mkali.

Kadiri zana za AI zinavyopatikana zaidi, kizuizi cha kufanya vitendo hivi vibaya kinapungua, na kusababisha ongezeko la uhalifu unaosaidiwa na AI.

Hii inahitaji mbinu mpya za usalama wa mtandao na utekelezaji wa sheria, kama mifumo ya AI inayoweza kutambua deepfakes au tabia zisizo za kawaida na mifumo ya sheria iliyosasishwa kuwajibisha wahalifu. Kwa msingi huo, tunapaswa kutarajia kuwa uwezo wowote AI inawapatia wateja wake, pia inaweza kuupatia wahalifu – na kujiandaa ipasavyo.

Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama katika AI
Matumizi Mabaya ya Jinai, Udanganyifu, na Vitisho vya Usalama katika AI

Uwezeshaji wa Kijeshi na Silaha Zinazojiendesha

Labda hatari kubwa zaidi ya AI inapotokea katika muktadha wa vita na usalama wa taifa. AI inaingizwa haraka katika mifumo ya kijeshi, ikionyesha uwezekano wa silaha zinazojiendesha ("roboti wauaji") na maamuzi yanayotegemea AI katika mapigano.

Teknolojia hizi zinaweza kutenda haraka zaidi kuliko binadamu yeyote, lakini kuondoa udhibiti wa binadamu katika matumizi ya nguvu za kuua kuna hatari kubwa. Kuna hatari kwamba silaha inayodhibitiwa na AI inaweza kuchagua lengo lisilo sahihi au kuongeza migogoro kwa njia zisizotarajiwa.

Waswasi wa Kimataifa: Uwezeshaji wa AI kwa matumizi ya kijeshi unatambuliwa kama tishio linaloongezeka na watazamaji wa kimataifa.

Makosa ya Kuchagua Lengo

Silaha za AI zinaweza kutambua vibaya raia kama wapiganaji

  • Utambuzi wa uwongo
  • Vifo vya raia

Kuongezeka kwa Migogoro

Mifumo ya kujitegemea inaweza kuongeza hali zaidi ya migogoro bila kusudi la binadamu

  • Mizunguko ya majibu ya haraka
  • Kuongezeka kwa migogoro isiyodhibitiwa

Ikiwa mataifa yatashindana kujiandaa na silaha za akili, inaweza kusababisha mbio za silaha zisizodhibitiwa. Zaidi ya hayo, AI inaweza kutumika katika vita vya mtandao kushambulia miundombinu muhimu au kusambaza propaganda, na kuchanganya mstari kati ya amani na mgogoro.

Maendeleo ya AI katika vita, ikiwa yatakuwa mikononi mwa wachache, yanaweza kulazimishwa kwa watu bila wao kuwa na sauti juu ya jinsi inavyotumika, na kudhoofisha usalama na maadili ya dunia.

— Umoja wa Mataifa

Mifumo ya silaha zinazojiendesha pia inaleta mashaka ya kisheria na maadili – nani atawajibika ikiwa drone ya AI itaua raia kwa makosa? Mifumo hii inazingatiaje sheria za kibinadamu za kimataifa?

Maswali haya yasiyo na majibu yamesababisha wito wa marufuku au udhibiti mkali wa silaha fulani zinazotumia AI. Kuhakikisha usimamizi wa binadamu juu ya AI inayoweza kufanya maamuzi ya maisha na kifo kunazingatiwa kuwa jambo la msingi. Bila hilo, hatari si tu makosa ya kusikitisha uwanjani bali pia kupoteza uwajibikaji wa binadamu katika vita.

Uwezeshaji wa Kijeshi na Silaha Zinazojiendesha katika AI
Uwezeshaji wa Kijeshi na Silaha Zinazojiendesha katika AI

Ukosefu wa Uwajibikaji na Uwazi

Mifumo mingi ya AI ya hali ya juu leo hufanya kazi kama "sanduku zito" – mantiki yao ya ndani mara nyingi haieleweki hata kwa watengenezaji wake. Ukosefu huu wa uwazi unasababisha hatari kwamba maamuzi ya AI hayawezi kufafanuliwa au kupingwa, jambo ambalo ni tatizo kubwa katika nyanja kama sheria, fedha, au huduma za afya ambapo ufafanuzi ni sharti la kisheria au la maadili.

Ikiwa AI itakataa mkopo kwa mtu, kugundua ugonjwa, au kuamua nani anayeachiliwa kutoka gerezani, tunataka kujua kwa nini. Kwa baadhi ya mifano ya AI (hasa mitandao tata ya neva), kutoa sababu wazi ni vigumu.

Maamuzi ya Kisheria

Uachiliaji wa dhamana, hukumu, na maamuzi ya kisheria yanayotolewa na mifumo isiyo wazi ya AI

Huduma za Kifedha

Uidhinishaji wa mikopo na maamuzi ya mkopo bila maelezo wazi

Huduma za Afya

Uchunguzi wa matibabu na mapendekezo ya tiba kutoka kwa AI isiyoeleweka

Ukosefu wa uwazi pia unaweza kudhoofisha uwezekano wa kupinga maamuzi kwa ufanisi yanayotokana na matokeo ya mifumo ya AI, na hivyo kuathiri haki ya kupata kesi ya haki na tiba bora.

— UNESCO

Kwa maneno mengine, ikiwa watumiaji wala wasimamizi hawawezi kuelewa jinsi AI inavyofanya maamuzi, basi ni vigumu kabisa kumwajibisha mtu yeyote kwa makosa au upendeleo yanayotokea.

Pengoni la Uwajibikaji: Kampuni zinaweza kuepuka kuwajibika kwa kulaumu "algorithm," na watu waliathirika wakaachwa bila njia ya kupata haki.

Kupambana na hili, wataalamu wanapendekeza mbinu za AI inayoweza kufafanuliwa, ukaguzi mkali, na masharti ya kisheria yanayohitaji maamuzi ya AI kufuatiliwa hadi mamlaka ya binadamu.

Kwa kweli, miongozo ya maadili ya kimataifa inasisitiza kuwa inapaswa "kuwa rahisi kila wakati kuhusisha uwajibikaji wa maadili na kisheria" kwa tabia za mifumo ya AI kwa mtu au shirika. Binadamu lazima bado wawe na uwajibikaji wa mwisho, na AI inapaswa kusaidia badala ya kuchukua nafasi ya hukumu ya binadamu katika masuala nyeti. Vinginevyo, tunakumbwa na hatari ya kuunda dunia ambapo maamuzi muhimu hufanywa na mashine zisizoeleweka, jambo linalosababisha ukosefu wa haki.

Ukosefu wa Uwajibikaji na Uwazi katika Matumizi ya AI Kazini
Ukosefu wa Uwajibikaji na Uwazi katika Matumizi ya AI Kazini

Mkusanyiko wa Nguvu na Ukosefu wa Usawa

Mapinduzi ya AI hayafanyiki kwa usawa duniani – makampuni machache na nchi chache ndizo zinazoongoza katika maendeleo ya AI ya hali ya juu, jambo linaloleta hatari zake mwenyewe.

Mifano ya AI ya kisasa inahitaji data nyingi, vipaji, na rasilimali za kompyuta ambazo ni mali ya makampuni makubwa ya teknolojia (na serikali zilizo na fedha nyingi) pekee kwa sasa.

Hii imesababisha mnyororo wa usambazaji uliojikita, wa kipekee, na uliounganishwa kimataifa unaowapendelea makampuni na nchi chache.

— Jukwaa la Uchumi Duniani

Monopoli ya Data

Maktaba kubwa za data zinazosimamiwa na taasisi chache

Rasilimali za Kompyuta

Miundombinu ya gharama kubwa inayopatikana kwa makampuni makubwa ya teknolojia pekee

Mkusanyiko wa Vipaji

Watafiti wakuu wa AI wamo katika taasisi chache

Mkusanyiko huu wa nguvu za AI unaweza kusababisha udhibiti wa kibepari wa teknolojia za AI, ukizuia ushindani na uchaguzi wa watumiaji. Pia unaongeza hatari kwamba vipaumbele vya makampuni au mataifa machache vitaunda AI kwa njia ambazo hazizingatii maslahi ya umma kwa ujumla.

Onyo la UN: Kuna hatari kwamba teknolojia ya AI inaweza kulazimishwa kwa watu bila wao kuwa na sauti juu ya jinsi inavyotumika, hasa ikiwa maendeleo yanazingirwa na wachache wenye nguvu.

Ukosefu huu unaweza kuongeza tofauti za kimataifa: mataifa na makampuni tajiri yanapiga hatua kwa kutumia AI, wakati jamii maskini hazipati zana za kisasa na wanakumbwa na upotevu wa ajira bila kufurahia faida za AI.

Zaidi ya hayo, sekta ya AI iliyojikita inaweza kuzima ubunifu (ikiwa wapya hawawezi kushindana na rasilimali za wamiliki wa sasa) na kuleta hatari za usalama (ikiwa miundombinu muhimu ya AI inasimamiwa na taasisi chache, basi inakuwa sehemu moja tu inayoweza kushindwa au kudanganywa).

Kushughulikia hatari hii kunahitaji ushirikiano wa kimataifa na labda kanuni mpya za kuleta usawa katika maendeleo ya AI – kwa mfano, kusaidia utafiti wa wazi, kuhakikisha upatikanaji wa haki wa data na rasilimali za kompyuta, na kutunga sera (kama Sheria ya AI ya Umoja wa Ulaya) kuzuia matumizi mabaya na "walinzi wa AI." Mazingira ya AI yanayojumuisha zaidi yangeweza kusaidia kuhakikisha faida za AI zinashirikiwa duniani kote, badala ya kuongeza pengo kati ya wenye teknolojia na wasio nayo.

Mkusanyiko wa Nguvu na Ukosefu wa Usawa
Mkusanyiko wa Nguvu na Ukosefu wa Usawa

Athari za Mazingira za AI

Kawaida haizingatiwi katika mijadala ya hatari za AI ni athari zake kwa mazingira. Maendeleo ya AI, hasa mafunzo ya mifano mikubwa ya kujifunza mashine, hutumia umeme mwingi na nguvu za kompyuta.

Kituo cha data kilichojazwa na seva elfu zinazotumia nguvu nyingi kinahitajika kusindika maelfu ya data ambayo mifumo ya AI hujifunza kutoka. Hii inamaanisha AI inaweza kuchangia moja kwa moja uchafuzi wa hewa na mabadiliko ya tabianchi.

Takwimu Zinazotia Wasiwasi: Ripoti ya hivi karibuni ya shirika la Umoja wa Mataifa iligundua kuwa uzalishaji wa kaboni wa moja kwa moja wa makampuni manne makubwa yanayolenga AI uliongezeka kwa wastani wa asilimia 150 kutoka 2020 hadi 2023, hasa kutokana na mahitaji ya nishati ya vituo vya data vya AI.
Ongezeko la Uzalishaji wa Kaboni (2020-2023) 150%

Kadiri uwekezaji katika AI unavyoongezeka, uzalishaji wa gesi chafu kutoka kwa mifano ya AI unatarajiwa kuongezeka kwa kasi – ripoti ilikadiria kuwa mifumo mikuu ya AI inaweza kutoa tani zaidi ya milioni 100 za CO₂ kwa mwaka, ikizidisha mzigo kwa miundombinu ya nishati.

Kukisia, vituo vya data vinavyotumia AI vinaendesha matumizi ya umeme kwa kasi ya "mara nne zaidi kuliko ongezeko la jumla la matumizi ya umeme".

Matumizi ya Nishati

Matumizi makubwa ya umeme kwa mafunzo na uendeshaji wa mifano ya AI

Matumizi ya Maji

Matumizi makubwa ya maji kwa ajili ya kupoza vituo vya data

Takataka za Kielektroniki

Mabadiliko ya vifaa yanayosababisha mtiririko wa taka za kielektroniki

Mbali na uzalishaji wa kaboni, AI pia inaweza kutumia maji mengi kwa ajili ya kupoza na kusababisha taka za kielektroniki kutokana na mabadiliko ya haraka ya vifaa. Ikiwa haitadhibitiwa, athari za AI kwa mazingira zinaweza kudhoofisha juhudi za kimataifa za uendelevu.

Hatari hii inahitaji AI iwe na ufanisi zaidi wa nishati na kutumia vyanzo vya nishati safi. Watafiti wanatengeneza mbinu za AI za kijani kupunguza matumizi ya nguvu, na baadhi ya makampuni yameahidi kulipia gharama za kaboni za AI. Hata hivyo, bado ni wasiwasi mkubwa kwamba haraka ya AI inaweza kuleta gharama kubwa kwa mazingira. Kusawazisha maendeleo ya kiteknolojia na uwajibikaji wa mazingira ni changamoto nyingine ambayo jamii inapaswa kushughulikia tunapoingiza AI kila mahali.

Athari za Mazingira za AI
Athari za Mazingira za AI

Hatari za Muda Mrefu na za Kimaisha

Zaidi ya hatari za papo hapo, baadhi ya wataalamu wanaonya kuhusu hatari za muda mrefu na za kimaisha kutoka AI – ikiwa ni pamoja na uwezekano wa AI ya hali ya juu inayoweza kukua zaidi ya udhibiti wa binadamu. Ingawa mifumo ya AI ya leo ni nyembamba kwa uwezo wake, watafiti wanafanya kazi kwa bidii kuelekea AI ya jumla zaidi ambayo inaweza kumzidi binadamu katika nyanja nyingi.

Hii inaleta maswali magumu: ikiwa AI itakuwa na akili zaidi sana au kujitegemea, inaweza kutenda kwa njia zinazotishia kuwepo kwa binadamu? Ingawa inasikika kama hadithi za sayansi, watu mashuhuri katika jamii ya teknolojia wameonyesha wasiwasi kuhusu hali za "AI hatari", na serikali zinashughulikia mjadala huu kwa umakini.

Jibu la Serikali: Mwaka 2023, Uingereza iliongoza Mkutano wa Kimataifa wa Usalama wa AI kushughulikia hatari za AI za mbele, ikionyesha wasiwasi mkubwa wa taasisi kuhusu usalama wa AI wa muda mrefu.

Wataalamu wana maoni tofauti kuhusu hatari ya binadamu kupoteza udhibiti wa AI kwa njia inayoweza kusababisha matokeo mabaya makubwa.

— Ripoti ya Usalama ya AI ya Kimataifa

Makubaliano ya kisayansi hayako sawa – baadhi wanaamini AI yenye akili sana iko mbali kwa miongo au inaweza kuendeshwa kwa maadili ya binadamu, wakati wengine wanaona uwezekano mdogo lakini si sifuri wa matokeo mabaya makubwa.

Hali za Hatari za Kimaisha Zinazowezekana

  • AI kufuata malengo yasiyolingana na maadili ya binadamu
  • Maendeleo ya haraka na yasiyodhibitiwa ya uwezo wa AI
  • Kupoteza udhibiti wa binadamu katika maamuzi muhimu
  • Mifumo ya AI kuboresha malengo hatarishi

Hatua za Usalama za Muda Mrefu

  • Utafiti wa kulinganisha malengo ya AI na maadili ya binadamu
  • Mikataba ya kimataifa kuhusu utafiti wa AI wenye hatari kubwa
  • Kudumisha usimamizi wa binadamu AI inapokuwa na uwezo zaidi
  • Kutunga mifumo ya usimamizi wa AI duniani

Kwa kifupi, kuna kutambua kuwa hatari ya kimaisha kutoka AI, hata kama ni ndogo, haiwezi kupuuzwa kabisa. Matokeo kama hayo yanaweza kuhusisha AI kufuata malengo yake kwa madhara kwa ustawi wa binadamu (mfano wa kawaida ni AI ambayo, ikiwa itapangwa vibaya, itaamua kufanya jambo hatari kwa kiwango kikubwa kwa sababu haijui maadili au mipaka ya kawaida).

Ingawa hakuna AI ya leo yenye uwezo wa kiwango hicho, mwendo wa maendeleo ya AI ni haraka na hauwezi kutabirika, jambo ambalo ni hatari yenyewe.

Kujiandaa kwa hatari za muda mrefu kunamaanisha kuwekeza katika utafiti wa kulinganisha malengo ya AI (kuhakikisha malengo ya AI yanaendana na maadili ya binadamu), kuanzisha mikataba ya kimataifa kuhusu utafiti wa AI wenye hatari kubwa (kama mikataba ya silaha za nyuklia au kibaolojia), na kudumisha usimamizi wa binadamu AI inapoongezeka uwezo.

Baadaye ya AI inaahidi kubwa, lakini pia kutokuwa na uhakika – na busara inatuhimiza tuchukulie hatari za chini za uwezekano lakini zenye athari kubwa katika mipango yetu ya muda mrefu.

Hatari za Kimaisha na za Muda Mrefu katika AI
Hatari za Kimaisha na za Muda Mrefu katika AI

Kuongoza Mustakabali wa AI kwa Uwajibikaji

AI mara nyingi hulinganishwa na injini yenye nguvu inayoweza kuendesha binadamu mbele – lakini bila breki na mwelekeo, injini hiyo inaweza kupotea njia. Kama tulivyoona, hatari za kutumia AI ni mbalimbali: kuanzia masuala ya papo hapo kama algorithms zenye upendeleo, habari za uongo, uvamizi wa faragha, na mabadiliko ya ajira, hadi changamoto za kijamii kama vitisho vya usalama, maamuzi ya "sanduku zito," monopoli za Big Tech, mzigo wa mazingira, na hata hatari ya mbali ya kupoteza udhibiti kwa AI yenye akili sana.

Kumbusho Muhimu: Hatari hizi hazimaanishi tuache maendeleo ya AI; badala yake, zinaonyesha hitaji la dharura la usimamizi wa AI kwa uwajibikaji na maadili.

Serikali, mashirika ya kimataifa, viongozi wa sekta, na watafiti wanazidi kushirikiana kushughulikia masuala haya – kwa mfano, kupitia mifumo kama:

  • Muundo wa Usimamizi wa Hatari wa AI wa NIST wa Marekani (kuboresha kuaminika kwa AI)
  • Mapendekezo ya Maadili ya AI ya UNESCO duniani
  • Sheria ya AI ya Umoja wa Ulaya

Juhudi hizi zinalenga kukuza faida za AI huku zikipunguza hasara zake, kuhakikisha AI inahudumia binadamu na si vinginevyo.

Njia ya Mbele

Kuelewa hatari za AI ni hatua ya kwanza ya kuzisimamia. Kwa kuwa na taarifa na kushiriki katika jinsi AI inavyotengenezwa na kutumika, tunaweza kusaidia kuiongoza teknolojia hii ya mabadiliko kwa njia salama, ya haki, na yenye manufaa kwa wote.

Chunguza makala zaidi zinazohusiana
135 makala
Rosie Ha ni mwandishi wa Inviai, mtaalamu wa kushiriki maarifa na suluhisho kuhusu akili bandia. Kwa uzoefu wa kufanya utafiti na kutumia AI katika nyanja mbalimbali kama biashara, ubunifu wa maudhui, na uendeshaji wa kiotomatiki, Rosie Ha huleta makala zinazoweza kueleweka kwa urahisi, za vitendo na zenye kuhamasisha. Dhamira ya Rosie Ha ni kusaidia watu kutumia AI kwa ufanisi ili kuongeza uzalishaji na kupanua uwezo wa ubunifu.

Maoni 0

Weka Maoni

Hapajapatikana maoni. Kuwa wa kwanza kutoa maoni!

Tafuta