Je, unajiuliza kuhusu upendeleo wa algorithimu katika AI? Jiunge na INVIAIAI na Upendeleo wa Algorithimu katika makala hii!
Akili Bandia (AI) inaingia zaidi katika maisha yetu ya kila siku – kuanzia maamuzi ya ajira hadi huduma za afya na usalama wa polisi – lakini matumizi yake yameibua wasiwasi kuhusu upendeleo wa algorithimu. Upendeleo wa algorithimu unahusu upendeleo wa mfumo na usio wa haki katika matokeo ya mifumo ya AI, mara nyingi ukionyesha mitazamo potofu na ukosefu wa usawa katika jamii.
Kwa kifupi, algorithimu ya AI inaweza kwa bahati mbaya kuiga upendeleo wa binadamu uliopo katika data ya mafunzo au muundo wake, na kusababisha matokeo ya ubaguzi.
Tatizo hili limekuwa mojawapo ya changamoto zinazojadiliwa sana katika maadili ya teknolojia, likivutia umakini wa watafiti, watunga sera, na viongozi wa sekta duniani kote. Kuenea kwa haraka kwa AI kunafanya kuwa muhimu kushughulikia upendeleo sasa: bila miongozo ya maadili, AI ina hatari ya kuiga upendeleo na ubaguzi wa dunia halisi, ikichochea mgawanyiko wa kijamii na hata kuathiri haki za msingi za binadamu.
Hapa chini, tunachunguza sababu za upendeleo wa algorithimu, mifano halisi ya athari zake, na jinsi dunia inavyojitahidi kufanya AI kuwa ya haki zaidi.
Kuelewa Upendeleo wa Algorithimu na Sababu Zake
Upendeleo wa algorithimu kawaida hutokea sio kwa sababu AI “inataka” kubagua, bali kutokana na sababu za kibinadamu. Mifumo ya AI hujifunza kutoka kwa data na kufuata sheria zilizotengenezwa na watu – na watu wana upendeleo (mara nyingi bila kujua).
Ikiwa data ya mafunzo ina upendeleo au inaonyesha mitazamo ya kihistoria, AI itajifunza mifumo hiyo.
Kwa mfano, AI inayotumika kuchuja wasifu wa kazi iliyofunzwa kwa data ya ajira ya miaka kumi katika sekta ya teknolojia (ambapo wengi walioteuliwa walikuwa wanaume) inaweza kubaini kuwa wagombea wa kiume ni bora, hivyo kuwapunguzia wanawake nafasi. Sababu nyingine za kawaida ni data isiyo kamili au isiyoakisi kikamilifu, uandikishaji wa data wenye upendeleo, au algorithimu zilizoboreshwa kwa usahihi wa jumla lakini si kwa haki kwa makundi madogo.
Kwa kifupi, algorithimu za AI huchukua upendeleo wa waumbaji wake na data isipokuwa hatua za makusudi zichukuliwe kutambua na kurekebisha upendeleo huo.
Ni muhimu kuelewa kwamba upendeleo wa algorithimu kawaida huwa haulengwi. Mashirika mara nyingi hutumia AI kufanya maamuzi kuwa ya haki zaidi, lakini ikiwa “watawapa” mfumo taarifa zenye upendeleo au kushindwa kuzingatia usawa katika muundo, matokeo bado yanaweza kuwa yasiyo ya haki. Upendeleo wa AI unaweza kugawa fursa kwa njia isiyo sawa na kutoa matokeo yasiyo sahihi, na kuathiri vibaya ustawi wa watu na kupunguza imani kwa AI.
Kuelewa kwanini upendeleo hutokea ni hatua ya kwanza kuelekea suluhisho – na ni hatua ambayo taasisi za elimu, sekta, na serikali duniani kote sasa zinachukua kwa uzito.
Mifano Halisi ya Upendeleo wa AI Duniani
Upendeleo katika AI si tu wasiwasi wa nadharia; visa vingi halisi vimeonyesha jinsi upendeleo wa algorithimu unaweza kusababisha ubaguzi. Mifano maarufu ya upendeleo wa AI katika sekta mbalimbali ni pamoja na:
-
Haki za Jinai: Marekani, algorithimu maarufu inayotumika kutabiri uwezekano wa mhalifu kurudia kosa (recidivism) iligundulika kuwa na upendeleo dhidi ya watuhumiwa Weusi. Mara nyingi ilitathmini vibaya watuhumiwa Weusi kama hatari kubwa na watuhumiwa Weupe kama hatari ndogo, ikiongeza tofauti za rangi katika hukumu.
Kesi hii inaonyesha jinsi AI inaweza kuimarisha upendeleo wa kihistoria katika polisi na mahakama. -
Ajira na Uajiri: Amazon ilijulikana kuachana na zana ya AI ya kuajiri baada ya kugundua kuwa ilikuwa inabagua wanawake. Mfano wa kujifunza wa mashine ulikuwa umejifunza kuwa wagombea wa kiume ni bora, kwa sababu ulifundishwa kwa wasifu wa kazi wa zamani ambao wengi walikuwa wanaume.
Kama matokeo, wasifu wenye neno “wanawake” (mfano “kapteni wa klabu la chess la wanawake”) au vyuo vya wanawake pekee vilipunguzwa hadhi na mfumo. Algorithimu hii ya ajira yenye upendeleo ingekuwa ikiziondoa wanawake wenye sifa kwa kazi za kiufundi kwa njia isiyo haki. -
Huduma za Afya: Algorithimu inayotumika na hospitali nchini Marekani kutambua wagonjwa wanaohitaji huduma za ziada iligundulika kupunguza umuhimu wa mahitaji ya afya ya wagonjwa Weusi ikilinganishwa na wagonjwa Weupe. Mfumo ulitabiri kipaumbele cha usimamizi wa huduma kulingana na matumizi ya huduma za afya: kwa kuwa kihistoria pesa kidogo ilitumiwa kwa wagonjwa Weusi wenye ugonjwa sawa, algorithimu ilihitimisha vibaya kuwa wagonjwa Weusi ni “wazima zaidi” na kuwapa alama za hatari za chini.
Kwenye vitendo, upendeleo huu ulimaanisha wagonjwa wengi Weusi waliokuwa na mahitaji zaidi ya huduma walizuiwa – utafiti ulionyesha wagonjwa Weusi walitumia takriban $1,800 chini kwa mwaka kwa huduma za matibabu ikilinganishwa na wagonjwa Weupe wenye ugonjwa sawa, na hivyo AI iliwatibu chini. -
Utambuzi wa Uso: Teknolojia ya utambuzi wa uso imeonyesha upendeleo mkubwa katika usahihi kati ya makundi ya watu. Utafiti wa kina wa 2019 uliofanywa na Taasisi ya Kitaifa ya Viwango na Teknolojia (NIST) ya Marekani uligundua kuwa algorithimu nyingi za utambuzi wa uso zilikuwa na makosa zaidi kwa watu wa rangi na wanawake kuliko kwa wanaume weupe.
Kwenye hali za kulinganisha picha moja kwa moja (kuhakiki kama picha mbili ni za mtu mmoja), utambuzi wa uwongo kwa nyuso za Waasia na Waafrika-Marekani ulikuwa maradufu 10 hadi 100 zaidi kuliko kwa nyuso za Wazungu katika algorithimu fulani. Katika utafutaji wa mtu mmoja kati ya wengi (kutambua mtu kutoka kwenye hifadhidata, inayotumika na vyombo vya sheria), kiwango cha juu cha makosa ya utambuzi kilikuwa kwa wanawake Weusi – upendeleo hatari ambao tayari umepelekea watu wasio na hatia kukamatwa kwa makosa.
Tofauti hizi zinaonyesha jinsi AI yenye upendeleo inaweza kuathiri vibaya makundi yaliyotengwa zaidi. -
AI ya Kuunda na Maudhui Mtandaoni: Hata mifumo ya AI ya kisasa haijakwepa upendeleo. Utafiti wa UNESCO wa 2024 ulionyesha kuwa mifano mikubwa ya lugha (AI inayotumika kwenye chatbots na watengenezaji wa maudhui) mara nyingi hutengeneza mitazamo ya kijinsia na rangi yenye upendeleo.
Kwa mfano, wanawake waliandikwa mara nne zaidi katika majukumu ya nyumbani kuliko wanaume na majina ya kike mara nyingi yalihusishwa na maneno kama “nyumbani” na “watoto,” wakati majina ya kiume yalihusishwa na “mkuu,” “mshahara,” na “kazi.” Vilevile, utafiti ulionyesha mifano hii ya AI ikionyesha upendeleo wa kupendelea jinsia moja na mitazamo ya kitamaduni yenye upendeleo katika matokeo yao.
Kutokana na mamilioni ya watu kutumia AI ya kuunda maudhui kila siku, hata upendeleo mdogo unaweza kuimarisha ukosefu wa usawa katika dunia halisi, ukithibitisha mitazamo potofu kwa wingi.
Mifano hii inaonyesha wazi kuwa upendeleo wa algorithimu si tatizo la mbali au la nadra – linaendelea kutokea katika nyanja mbalimbali sasa. Kuanzia fursa za kazi hadi haki, huduma za afya hadi taarifa mtandaoni, mifumo ya AI yenye upendeleo inaweza kuiga na hata kuimarisha ubaguzi uliopo.
Athari zake mara nyingi huathiri makundi yaliyotengwa kihistoria, na kuibua masuala makubwa ya maadili na haki za binadamu. Kama UNESCO inavyonya, hatari za AI ni “kuongezeka juu ya ukosefu wa usawa uliopo, na kusababisha madhara zaidi kwa makundi yaliyotengwa tayari”.
Kwanini Upendeleo wa AI ni Muhimu?
Hatari za kushughulikia upendeleo wa AI ni kubwa. Kama hazitadhibitiwa, algorithimu zenye upendeleo zinaweza kuimarisha ubaguzi wa mfumo nyuma ya sura ya usawa wa kiteknolojia. Maamuzi yanayotengenezwa (au kuongozwa) na AI – nani anayeajiriwa, nani anayepewa mkopo au msamaha, jinsi polisi wanavyolenga ufuatiliaji – yana athari halisi kwa maisha ya watu.
Ikiwa maamuzi hayo yanapendelea kwa njia isiyo haki jinsia fulani, rangi, au jamii, ukosefu wa usawa wa kijamii unaongezeka. Hii inaweza kusababisha kupuuzwa kwa fursa, tofauti za kiuchumi, au hata vitisho kwa uhuru binafsi na usalama wa makundi yaliyoathirika.
Kwa mtazamo mpana, upendeleo wa algorithimu unapunguza haki za binadamu na haki za kijamii, ukipingana na misingi ya usawa na kutokubagua inayothaminiwa na jamii za kidemokrasia.
Upendeleo katika AI pia hupunguza imani ya umma kwa teknolojia. Watu hawataki kuamini au kutumia mifumo ya AI inayochukuliwa kuwa isiyo ya haki au isiyo wazi.
Kwa biashara na serikali, upungufu huu wa imani ni suala kubwa – uvumbuzi unaofanikiwa unahitaji kuaminika kwa umma. Kama mtaalamu mmoja alivyoeleza, maamuzi ya AI yenye haki na yasiyo na upendeleo si tu ni ya maadili, ni mazuri kwa biashara na jamii kwa sababu uvumbuzi endelevu unategemea imani.
Kinyume chake, kushindwa kwa AI kutokana na upendeleo (kama visa vilivyoelezwa hapo juu) kunaweza kuharibu sifa na uhalali wa shirika.
Zaidi ya hayo, upendeleo wa algorithimu unaweza kupunguza faida zinazoweza kupatikana kutoka kwa AI. AI ina ahadi ya kuboresha ufanisi na maamuzi, lakini ikiwa matokeo yake ni ya ubaguzi au yasiyo sahihi kwa sehemu za watu, haiwezi kufikia athari zake chanya kikamilifu.
Kwa mfano, chombo cha afya cha AI kinachofanya kazi vizuri kwa kundi moja lakini vibaya kwa wengine si chombo chenye ufanisi au kinachokubalika kweli. Kama ilivyoonyeshwa na OECD, upendeleo katika AI unapunguza fursa kwa njia isiyo haki na unaweza kuathiri sifa za biashara na imani ya watumiaji.
Kwa kifupi, kushughulikia upendeleo si tu ni jukumu la maadili bali pia ni muhimu kwa kutumia faida za AI kwa watu wote kwa njia ya haki.
Mikakati ya Kupunguza Upendeleo wa AI
Kwa kuwa upendeleo wa algorithimu sasa unatambuliwa sana, mbinu mbalimbali na mifano bora ya utendaji imeibuka kupunguza tatizo hili. Kuhakikisha mifumo ya AI ni ya haki na jumuishi kunahitaji hatua katika hatua nyingi za maendeleo na utekelezaji:
-
Mbinu Bora za Data: Kwa kuwa data yenye upendeleo ni chanzo kikuu, kuboresha ubora wa data ni muhimu. Hii inamaanisha kutumia seti za mafunzo zenye utofauti na zinazoakisi kikamilifu makundi madogo, na kukagua kwa makini upendeleo au mapungufu.
Pia inahusisha ukaguzi wa data kwa upendeleo wa kihistoria (mfano tofauti za matokeo kwa rangi/jinsia) na kurekebisha au kusawazisha kabla ya kufundisha mfano. Katika visa ambapo makundi fulani hayajawakilishi vya kutosha, mbinu kama kuongeza data au data bandia zinaweza kusaidia.
Utafiti wa NIST ulionyesha kuwa data ya mafunzo yenye utofauti zaidi inaweza kutoa matokeo yenye usawa zaidi katika utambuzi wa uso, kwa mfano. Ufuatiliaji endelevu wa matokeo ya AI pia unaweza kugundua matatizo ya upendeleo mapema – kitu kinachopimwa kinadhibitiwa. Ikiwa shirika linakusanya data thabiti kuhusu jinsi maamuzi ya algorithimu yanavyotofautiana kwa makundi, linaweza kubaini mifumo isiyo ya haki na kuirekebisha. -
Ubunifu wa Algorithimu wa Haki: Waendelezaji wanapaswa kuingiza kwa makusudi vikwazo vya usawa na mbinu za kupunguza upendeleo katika mafunzo ya mfano. Hii inaweza kujumuisha kutumia algorithimu zinazoweza kurekebishwa kwa usawa (si tu usahihi), au kutumia mbinu za kusawazisha viwango vya makosa kati ya makundi.
Kuna zana na mifumo mingi (mengi ni chanzo huria) za kupima upendeleo na kurekebisha – kwa mfano, kurekebisha uzito wa data, kubadilisha vizingiti vya maamuzi, au kuondoa vipengele nyeti kwa njia ya busara.
Ni muhimu kuelewa kuwa kuna tafsiri nyingi za hisabati za usawa (mfano usawa wa utabiri, usawa wa makosa ya uwongo, n.k.), na wakati mwingine zinapingana. Chaguo la mbinu sahihi ya usawa linahitaji maadili na muktadha, si tu marekebisho ya data.
Kwa hivyo, timu za AI zinahimizwa kushirikiana na wataalamu wa nyanja na jamii zinazohusika wakati wa kufafanua vigezo vya usawa kwa matumizi maalum. -
Uangalizi wa Binadamu na Uwajibikaji: Hakuna mfumo wa AI unapaswa kufanya kazi bila uwajibikaji wa binadamu. Uangalizi wa binadamu ni muhimu kugundua na kurekebisha upendeleo ambao mashine inaweza kujifunza.
Hii inamaanisha kuwa na watu katika mchakato wa maamuzi muhimu – mfano, mwajiri anayetathmini wagombea waliopitiwa na AI, au hakimu anayechunguza alama ya hatari ya AI kwa tahadhari.
Pia inahusisha mgawanyo wazi wa majukumu: mashirika yanapaswa kukumbuka kuwa yanawajibika kwa maamuzi yanayotengenezwa na algorithimu zao kama vile maamuzi ya wafanyakazi. Ukaguzi wa mara kwa mara wa maamuzi ya AI, tathmini za athari za upendeleo, na uwezo wa kuelezea mantiki ya AI (uwezo wa kueleweka) husaidia kudumisha uwajibikaji.
Uwazi ni nguzo nyingine hapa: kuwa wazi kuhusu jinsi mfumo wa AI unavyofanya kazi na mapungufu yake yanayojulikana kunaweza kujenga imani na kuruhusu ukaguzi huru.
Kwa kweli, baadhi ya maeneo yanahamasisha uwazi wa maamuzi ya algorithimu yenye athari kubwa (mfano, kuhitaji mashirika ya umma kufichua jinsi algorithimu zinavyotumika katika maamuzi yanayoathiri raia). Lengo ni kuhakikisha AI inaongeza maamuzi ya binadamu bila kuchukua nafasi ya maadili au uwajibikaji wa kisheria. -
Timuu Zenye Utofauti na Maendeleo Jumuishi: Wataalamu wengi wanasisitiza thamani ya tofauti miongoni mwa waendelezaji wa AI na wadau. Bidhaa za AI zinaakisi mitazamo na mapungufu ya wale wanaozitengeneza.
Hivyo, ikiwa kundi moja tu la watu (mfano, jinsia moja, kabila moja, au asili moja ya kitamaduni) linatengeneza mfumo wa AI, linaweza kupuuzia jinsi unaweza kuathiri wengine kwa njia isiyo ya haki.
Kuingiza sauti mbalimbali – ikiwa ni pamoja na wanawake, makundi ya rangi, na wataalamu wa sayansi za kijamii au maadili – katika mchakato wa kubuni na kupima hutoa AI yenye ufahamu wa kitamaduni zaidi.
UNESCO inaonyesha kuwa kwa data za hivi karibuni, wanawake wako chini sana katika nafasi za AI (takriban 20% tu ya wafanyakazi wa kiufundi wa AI na 12% ya watafiti wa AI ni wanawake). Kuongeza uwakilishi si tu kuhusu usawa kazini, bali ni kuhusu kuboresha matokeo ya AI: ikiwa mifumo ya AI haitatengenezwa na timu zenye utofauti, haitakidhi mahitaji ya watumiaji mbalimbali au kulinda haki za kila mtu.
Mpango kama Women4Ethical AI wa UNESCO unalenga kuongeza utofauti na kushiriki mbinu bora za kubuni AI isiyo na ubaguzi. -
Sera na Miongozo ya Maadili: Serikali na mashirika ya kimataifa sasa yanachukua hatua kuhakikisha upendeleo wa AI unashughulikiwa. Mnamo 2021, wanachama wa UNESCO walikubali kwa kauli moja Mapendekezo ya Maadili ya Akili Bandia – mfumo wa kwanza wa kimataifa wa maadili ya AI.
Unasisitiza misingi ya uwazi, usawa, na kutokubagua, na kuhimiza uhakikisho wa binadamu wa mifumo ya AI. Misingi hii ni mwongozo kwa mataifa kuandaa sera na sheria kuhusu AI.
Vilevile, Sheria mpya ya AI ya Umoja wa Ulaya (inayotarajiwa kuanza kutumika kikamilifu mwaka 2024) inazingatia sana kuzuia upendeleo. Moja ya malengo makuu ya Sheria ya AI ni kupunguza ubaguzi na upendeleo katika mifumo ya AI yenye hatari kubwa.
Sheria itahitaji mifumo inayotumika katika maeneo nyeti (kama ajira, mikopo, utekelezaji wa sheria, n.k.) kupimwa kwa ukali kwa usawa na kuhakikisha haitawadhuru makundi yaliyolindwa kwa kiasi kikubwa.
Kuvunja sheria kunaweza kusababisha faini kubwa, na hivyo kuhamasisha kampuni kujenga udhibiti wa upendeleo.
Pamoja na kanuni pana, baadhi ya serikali za mitaa zimechukua hatua maalum – kwa mfano, miji zaidi ya kumi (ikiwa ni pamoja na San Francisco, Boston, na Minneapolis) imezuiwa kabisa kutumia teknolojia ya utambuzi wa uso na polisi kwa sababu ya upendeleo wa rangi na hatari za haki za kiraia.
Kwenye sekta ya teknolojia, mashirika ya viwango na makampuni ya teknolojia yanachapisha miongozo na kuendeleza zana (kama vifaa vya usawa na mifumo ya ukaguzi) kusaidia wataalamu kuingiza maadili katika maendeleo ya AI.
Harakati kuelekea “AI Inayoweza Kuaminika” zinahusisha mchanganyiko wa juhudi hizi, kuhakikisha mifumo ya AI ni halali, ya maadili, na imara katika matumizi.
>>> Je, unataka kujua:
AI na upendeleo wa algorithimu ni changamoto ya kimataifa ambayo bado tunaanza kuishughulikia kwa ufanisi. Mifano na juhudi zilizoelezwa hapo juu zinaonyesha wazi kuwa upendeleo wa AI si suala dogo – unaathiri fursa za kiuchumi, haki, afya, na mshikamano wa kijamii duniani kote.
Habari njema ni kuwa uelewa umeongezeka kwa kiasi kikubwa, na mkataba wa pamoja unaibuka kwamba AI inapaswa kuzingatia binadamu na kuwa ya haki.
Kufanikisha hili kutahitaji uangalizi endelevu: kuendelea kupima mifumo ya AI kwa upendeleo, kuboresha data na algorithimu, kuhusisha wadau mbalimbali, na kusasisha kanuni kadri teknolojia inavyobadilika.
Msingi wake, kupambana na upendeleo wa algorithimu ni kuhusu kufananisha AI na maadili yetu ya usawa na haki. Kama Mkurugenzi Mkuu wa UNESCO Audrey Azoulay alivyosema, hata “upendeleo mdogo katika maudhui ya [AI] unaweza kuimarisha sana ukosefu wa usawa katika dunia halisi”.
Kwa hivyo, jitihada za kupata AI isiyo na upendeleo ni muhimu kuhakikisha teknolojia inainua makundi yote ya jamii badala ya kuimarisha mitazamo ya zamani.
Kwa kuweka misingi ya maadili katika muundo wa AI – na kuziunga mkono kwa hatua na sera thabiti – tunaweza kutumia nguvu ya uvumbuzi wa AI huku tukilinda heshima ya binadamu.
Njia ya mbele kwa AI ni ile ambapo mashine za akili hujifunza kutoka kwa maadili bora ya binadamu, si upendeleo wetu mbaya, na kuwezesha teknolojia kufaidisha kila mtu kweli.