Akili bandia imefungua uwezo wa kuunda “deepfakes” – vyombo vya habari vya uongo vinavyoonekana halisi sana. Kuanzia video zinazobadilisha uso wa mtu kwa ustadi hadi sauti zilizokopiwa ambazo hazitofautiani na sauti halisi ya mtu, deepfakes zinawakilisha enzi mpya ambapo kuona (au kusikia) si kila mara kuamini. Teknolojia hii ina fursa za kusisimua za kuleta ubunifu katika sekta mbalimbali, lakini pia inaleta hatari kubwa.

Katika makala hii, tutachunguza ni nini AI deepfakes ni, jinsi zinavyofanya kazi, na fursa na hatari kuu zinazozileta katika dunia ya leo.

Deepfake ni Nini?

Deepfake ni kipande cha vyombo vya habari bandia (video, sauti, picha au hata maandishi) kinachozalishwa au kubadilishwa na AI kwa njia ya kuiga maudhui halisi kwa usahihi. Neno hilo linatokana na “deep learning” (algorithms za hali ya juu za AI) na “fake”, na lilianza kutumika sana mwaka 2017 kwenye jukwaa la Reddit ambapo watumiaji walishiriki video za watu maarufu waliobadilishwa uso.

Deepfakes za kisasa mara nyingi hutumia mbinu kama mitandao ya neva ya ushindani (GANs) – mitandao miwili ya neva inayojifunza kwa kushindana ili kuzalisha uigaji wa kweli zaidi. Katika muongo uliopita, maendeleo ya AI yamefanya iwe rahisi na nafuu kuunda deepfakes: kila mtu mwenye muunganisho wa intaneti sasa ana ufunguo wa kuzalisha vyombo vya habari bandia.

Deepfakes za awali zilipata umaarufu mbaya kwa matumizi mabaya (kama kuweka uso wa watu maarufu kwenye video za uongo), na hivyo kuipa teknolojia hii sifa mbaya. Hata hivyo, si maudhui yote yaliyotengenezwa na AI ni mabaya. Kama teknolojia nyingi, deepfakes ni chombo – athari zake (nzuri au mbaya) zinategemea jinsi zinavyotumika.

Kama ilivyoelezwa na Jukwaa la Uchumi Duniani, ingawa kuna mifano mingi hasi, “maudhui kama haya bandia pia yanaweza kuleta manufaa.” Katika sehemu zinazofuata, tutachunguza baadhi ya matumizi mazuri ya deepfake AI, ikifuatiwa na hatari na matumizi mabaya yanayohusiana na teknolojia hii.

Deepfake

Fursa na Matumizi Chanya ya Deepfake AI

Licha ya sifa zao zinazozua mjadala, deepfakes (zinazojulikana pia kama “vyombo vya habari bandia”) zinatoa matumizi chanya kadhaa katika nyanja za ubunifu, elimu, na kibinadamu:

  • Burudani na Vyombo vya Habari: Watengenezaji wa filamu wanatumia mbinu za deepfake kuunda athari za kuona za kuvutia na hata “kupunguza umri” wa waigizaji kwenye skrini. Kwa mfano, filamu ya hivi karibuni ya Indiana Jones ilitengeneza kidijitali picha ya Harrison Ford akiwa mchanga kwa kufundisha AI kwa video zake za zamani za miongo kadhaa. Teknolojia hii inaweza kuhuisha watu wa kihistoria au waigizaji waliokufa kwa maonyesho mapya na kuboresha utangazaji kwa kulinganisha harakati za midomo kwa usahihi.
    Kwa ujumla, deepfakes zinaweza kuzalisha maudhui ya kuvutia na halisi zaidi katika sinema, televisheni, na michezo.

  • Elimu na Mafunzo: Teknolojia ya deepfake inaweza kufanya uzoefu wa kujifunza kuwa wa kuvutia na mwingiliano zaidi. Walimu wanaweza kuunda maonyesho ya kielimu au maonyesho ya kihistoria yanayohusisha watu halisi maarufu, kuleta masomo ya historia au sayansi kuwa hai.
    Matukio halisi ya kuigiza yanayotengenezwa na AI (kwa mfano, kuiga dharura ya matibabu au hali ya kokpiti ya ndege) yanaweza kusaidia kufundisha wataalamu katika afya, usafiri wa anga, jeshi na zaidi. Maonyesho haya yanayozalishwa na AI huandaa wanafunzi kwa hali halisi kwa njia salama na iliyodhibitiwa.

  • Upatikanaji na Mawasiliano: Vyombo vya habari vinavyotengenezwa na AI vinavunja vizuizi vya lugha na mawasiliano. Watafsiri wa deepfake wanaweza kutafsiri video katika lugha nyingi huku wakihifadhi sauti na mienendo ya msemaji – msanii mmoja, FKA Twigs, alitengeneza deepfake yake mwenyewe inayozungumza lugha ambazo hajui. Hii ina uwezo wa kuokoa maisha: huduma za dharura zimekuwa zikitumia tafsiri ya sauti ya AI kutafsiri simu za 911 kwa haraka, kupunguza muda wa tafsiri kwa hadi 70% katika hali za dharura.
    Vivyo hivyo, wahusika wa lugha ya alama wanaotengenezwa kwa deepfake wanatengenezwa kutafsiri hotuba kuwa lugha ya alama kwa watu wasiosikia, wakizalisha video za kuonyesha lugha ya alama kwa uhalisia kiasi kwamba algorithmi hazikuweza kutofautisha na wahusika halisi katika tafiti za awali. Matumizi mengine yenye athari ni kuiga sauti binafsi kwa wale waliopoteza uwezo wa kuzungumza – kwa mfano, mwanachama wa Bunge la Marekani mwenye ugonjwa wa neva hivi karibuni alitumia kigezo cha sauti yake kilichotengenezwa na AI kuzungumza na wabunge baada ya kushindwa kuongea, akiruhusiwa “kuzungumza kwa sauti yake mwenyewe” licha ya ugonjwa wake.
    Matumizi haya yanaonyesha deepfakes kuboresha upatikanaji na kuhifadhi sauti na mawasiliano ya watu.

  • Afya na Tiba: Katika tiba, vyombo vya habari bandia vinaweza kusaidia utafiti na ustawi wa mgonjwa. Picha za matibabu zinazozalishwa na AI zinaweza kuongeza data za mafunzo kwa algorithms za uchunguzi – utafiti mmoja ulionyesha kuwa mfumo wa AI wa kugundua uvimbe uliofundishwa kwa picha za MRI zilizotengenezwa na GAN ulifanya kazi kama vile mfumo uliofundishwa kwa picha halisi. Hii ina maana deepfakes zinaweza kuimarisha AI ya matibabu kwa kuunda data nyingi za mafunzo bila kuhatarisha faragha ya mgonjwa.
    Kitibabu, deepfakes zilizodhibitiwa pia zinaweza kutuliza wagonjwa. Kwa mfano, wale wanaotunza wagonjwa wamejaribu kuunda video ambapo mtu wa familia wa mgonjwa wa Alzheimer anaonekana kama kijana wake (kutoka kipindi ambacho mgonjwa anakumbuka vyema), kupunguza mkanganyiko na wasiwasi wa mgonjwa. Katika kampeni za afya ya umma, mbinu za deepfake zimewezesha ujumbe wenye nguvu: katika kampeni moja ya kupambana na malaria, ujumbe wa video wa nyota wa soka David Beckham ulibadilishwa na AI ili “azungumze” kwa lugha tisa tofauti, kusaidia kampeni kufikia nusu bilioni ya watu duniani. Hii inaonyesha jinsi vyombo vya habari bandia vinaweza kuimarisha ujumbe muhimu kwa hadhira mbalimbali.

  • Faragha na Usiri: Kinyume chake, uwezo huo wa kubadilisha uso unaoweza kuunda habari za uongo pia unaweza kulinda faragha. Wanaharakati, waarifu au watu walioko hatarini wanaweza kupigwa picha na uso wao kubadilishwa na uso halisi unaotengenezwa na AI, kuficha utambulisho wao bila kutumia mbinu za wazi za kufifisha picha.
    Mfano maarufu ni filamu ya nyaraka “Welcome to Chechnya” (2020), iliyotumia uso wa AI kuficha utambulisho wa wanaharakati wa LGBT waliokimbia mateso huku ikihifadhi hisia na miondoko yao ya uso. Hii iliruhusu watazamaji kuungana na ubinadamu wa wahusika, ingawa nyuso zilizotumika hazikuwa halisi.
    Watafiti wanaendeleza wazo hili katika zana za faragha za kila siku – kwa mfano, mifumo ya majaribio ya “kujificha uso” inaweza kubadilisha uso wa mtu kwenye picha zinazoshirikiwa mitandaoni na mfanano wa bandia ikiwa mtu hajakubali kutambulika. Vilevile, teknolojia ya “ngozi ya sauti” inaweza kubadilisha sauti ya msemaji kwa wakati halisi (kama katika michezo ya mtandaoni au mikutano ya mtandao) kuzuia upendeleo au unyanyasaji huku ikihifadhi hisia na nia ya awali.
    Matumizi haya yanaonyesha deepfakes zinaweza kusaidia watu kudhibiti utambulisho wao wa kidijitali na usalama.

Kubadilisha uso kwa deepfake kunaweza kutumika kujificha kwa watu binafsi. Kwa mfano, filamu Welcome to Chechnya ililinda wanaharakati walioko hatarini kwa kuweka uso wa waigizaji wa kujitolea kupitia AI, kuficha utambulisho wao huku ikihifadhi miondoko ya asili. Hii inaonyesha jinsi vyombo vya habari bandia vinaweza kulinda faragha katika hali nyeti.

Kwa muhtasari, deepfakes ni upanga wenye pande mbili. Kwa upande mmoja, “maudhui bandia hayana chanya wala hasi kwa asili – athari yake inategemea mtumiaji na nia yake”. Mifano hapo juu inaonyesha fursa ya kutumia teknolojia ya deepfake kwa ubunifu, mawasiliano, na manufaa ya kijamii.

Hata hivyo, upande mwingine wa chombo hiki chenye nguvu ni uwezo wake mkubwa wa kuleta madhara wakati kinapotumika kwa makusudi mabaya. Miaka ya hivi karibuni imeleta hadithi nyingi za tahadhari kuhusu udanganyifu na matumizi mabaya ya deepfake, ambayo tutayachambua hapa chini.

Fursa na Matumizi Chanya ya Deepfake AI

Hatari na Matumizi Mabaya ya Deepfakes

Kuenea kwa deepfakes zinazotengenezwa kwa urahisi kumeibua wasiwasi na vitisho“wakiwa na wasiwasi mkubwa” kuhusu deepfakes – wakiiweka kama hofu yao kubwa zaidi inayohusiana na AI. Hatari kuu zinazohusiana na teknolojia ya deepfake ni:

  • Habari Potofu na Uendeshaji wa Kisiasa: Deepfakes zinaweza kutumiwa kama silaha kusambaza habari za uongo kwa wingi. Video au sauti bandia za watu maarufu zinaweza kuonyesha wakisema au kufanya mambo ambayo hayajatokea, kudanganya umma. Uongo kama huu unaweza kuharibu imani kwa taasisi, kuathiri maoni ya umma, au hata kusababisha machafuko.

    Kwa mfano, wakati wa vita vya Urusi na Ukraine, video ya deepfake ilienea ikionyesha Rais Volodymyr Zelensky akionekana kukubali kushindwa; ingawa ilifutwa haraka kutokana na kasoro za wazi (kama kichwa kikubwa isivyo kawaida na sauti isiyo ya kawaida), ilionyesha uwezo wa maadui kutumia uongo wa AI katika propaganda.
    Vivyo hivyo, picha bandia ya “mlipuko” karibu na Pentagon ilienea mwaka 2023 na kusababisha kushuka kwa soko la hisa kwa muda mfupi kabla mamlaka kuifafanua kuwa ilizalishwa na AI.

    Kadiri deepfakes zinavyoboreka, hofu ni kwamba zinaweza kutumiwa kuunda habari za uongo zinazoshawishi sana, zikiharibu uwezo wa umma kutofautisha uhalisia na uongo. Hii si tu kusambaza uongo bali pia kuleta athari ya faida ya mwongo – watu wanaweza kuanza kutoamini hata video halisi au ushahidi, wakidai ni deepfakes. Matokeo yake ni kupoteza ukweli na kuongezeka kwa upotevu wa imani katika vyombo vya habari na mijadala ya kidemokrasia.

  • Ngono Isiyoidhinishwa na Unyanyasaji: Moja ya matumizi mabaya ya awali na ya kawaida ya deepfakes ni kuunda maudhui ya ngono ya uongo. Kwa kutumia picha chache, wahalifu (mara nyingi kupitia majukwaa yasiyojulikana au programu) wanaweza kuunda video za ngono za kweli za watu binafsi – hasa wanawake – bila idhini yao. Hii ni ukiukaji mkubwa wa faragha na unyanyasaji wa kingono.

    Utafiti umeonyesha kuwa karibu asilimia 90–95 ya video za deepfake mtandaoni ni za ngono zisizoidhinishwa, karibu zote zikihusisha wanawake kama waathirika. Video hizi bandia zinaweza kusababisha madhara makubwa binafsi, kama aibu, mshtuko, uharibifu wa sifa, na hata vitisho vya utapeli. Waigizaji maarufu, waandishi wa habari, na hata watu binafsi wamegundua nyuso zao zimebandikwa kwenye maudhui ya watu wazima.

    Mamlaka za sheria na watunga sera wanazidi kuwa na wasiwasi na mwenendo huu; kwa mfano, Marekani, baadhi ya majimbo na serikali kuu wamependekeza au kupitisha sheria za kuzuia picha za ngono za deepfake na kuwapa waathirika njia za kisheria. Madhara ya picha za ngono za deepfake yanaonyesha jinsi teknolojia hii inaweza kutumiwa kuvunja faragha, kulenga watu binafsi (mara nyingi kwa upendeleo dhidi ya wanawake), na kusambaza picha za uongo zinazoharibu kwa gharama ndogo kwa mtenda.

  • Udanganyifu na Ulaghai wa Kujifanya Wengine: Deepfakes zimeibuka kama silaha hatari kwa wahalifu wa mtandao. Nakala za sauti za AI na hata video za deepfake za moja kwa moja hutumiwa kujifanya watu wanaoaminika kwa faida ya udanganyifu. FBI inatoa onyo kuwa wahalifu wanatumia nakala za sauti/video za AI kujifanya wanajamii, wafanyakazi au wakurugenzi – wakidanganya waathirika kutuma pesa au kufichua taarifa nyeti.

    Ulaghai huu, mara nyingi ni toleo la hali ya juu la udanganyifu wa “kujifanya mtu mwingine”, umeleta hasara kubwa. Katika kesi moja halisi, wezi walitumia AI kuiga sauti ya Mkurugenzi Mtendaji na kumshawishi mfanyakazi kumtumia €220,000 (takriban $240,000). Katika tukio jingine, wahalifu walitumia deepfake kuiga uwepo wa Mkurugenzi wa Fedha wa kampuni kwenye simu ya Zoom kuidhinisha uhamisho wa dola milioni 25 kwa akaunti za udanganyifu.

    Shambulio hizi za ujanja wa kijamii unaotegemea deepfake zinaongezeka – ripoti zinaonyesha mlipuko mkubwa wa ulaghai wa deepfake duniani katika miaka michache iliyopita. Mchanganyiko wa sauti/video bandia zinazoweza kuaminika sana na kasi ya mawasiliano ya kidijitali unaweza kuwashangaza waathirika. Biashara zina hatari kubwa kutoka kwa “ulaghai wa Mkurugenzi Mtendaji” au wakurugenzi wa uongo wanaotoa maagizo.

    Kama wafanyakazi hawajafunzwa kuwa na shaka na vyombo vya habari vya sauti na video, wanaweza kufuata maagizo ya deepfake yanayoonekana halali. Matokeo yake yanaweza kuwa wizi wa fedha, uvunjaji wa data, au madhara mengine ya gharama kubwa. Tishio hili limewafanya wataalamu wa usalama kusisitiza mbinu madhubuti za kuthibitisha utambulisho (kama kutumia njia salama za kuwasiliana kuthibitisha maombi) na zana za kiufundi za kugundua sauti na video katika miamala nyeti.

  • Kupungua kwa Imani na Changamoto za Kisheria: Kuibuka kwa deepfakes kunachanganya mstari kati ya uhalisia na uongo, likileta wasiwasi wa kijamii na maadili kwa upana. Kadiri maudhui bandia yanavyokuwa halisi zaidi, watu wanaweza kuanza kutoamini ushahidi halisi – hali hatari kwa haki na imani ya umma.

    Kwa mfano, video halisi ya uhalifu inaweza kupuuzwa kama “deepfake” na mtenda makosa, ikifanya kazi ya uandishi wa habari na kesi za kisheria kuwa ngumu. Kupungua kwa imani katika vyombo vya habari vya kidijitali ni vigumu kupimika, lakini ni hatari kwa muda mrefu.

    Deepfakes pia huleta masuala magumu ya kisheria: nani anamiliki haki za picha ya mtu iliyotengenezwa na AI? Sheria za kashfa au uvunjifu wa sifa zinawezaje kutumika kwa video bandia inayoharibu sifa ya mtu? Kuna pia maswali ya idhini na maadili – kutumia uso au sauti ya mtu katika deepfake bila ruhusa kwa kawaida huchukuliwa kama ukiukaji wa haki zao, ingawa sheria bado zinaendelea kuendana na hali hii.

    Baadhi ya maeneo yameanza kuhitaji maudhui yaliyobadilishwa yawe na lebo wazi, hasa yanapotumika katika matangazo ya kisiasa au uchaguzi. Zaidi ya hayo, mitandao ya kijamii iko chini ya shinikizo la kugundua na kuondoa deepfakes hatari (kama wanavyofanya kwa aina nyingine za habari potofu au vyombo vilivyobadilishwa).

    Kifundi, kugundua deepfakes ni “mbio za silaha”. Watafiti wanaendeleza mifumo ya AI kugundua dalili ndogo za uongo (kama mzunguko wa damu usio wa kawaida au miondoko ya kupiga blinki). Hata hivyo, kadiri kugundua kunavyoboreka, ndivyo mbinu za deepfake zinavyoboresha kuepuka kugunduliwa – ikisababisha vita vya kuendelea kati ya mbinu za kugundua na za kujificha.

    Changamoto hizi zote zinaonyesha wazi kuwa jamii lazima ijifunze jinsi ya kuthibitisha vyombo vya habari kwa uhalisia katika zama za AI na jinsi ya kuwajibisha watengenezaji wa deepfake kwa matumizi mabaya.

Hatari na Matumizi Mabaya ya Deepfakes

Kuelekeza Enzi ya Deepfake: Kupata Mlingano

Deepfakes za AI zinawakilisha changamoto ya kawaida ya maendeleo ya teknolojia: ahadi kubwa iliyochanganyika na hatari. Kwa upande mmoja, tunayo matumizi ya ubunifu na yenye manufaa yasiyokuwa na kifani – kuanzia kuhifadhi sauti na kutafsiri lugha hadi kufikiria njia mpya za kusimulia hadithi na kulinda faragha.

Kwa upande mwingine, matumizi mabaya ya deepfakes yanatishia faragha, usalama, na imani ya umma. Kuendelea mbele, ni muhimu kutoa faida kwa kiwango kikubwa huku tukipunguza madhara.

Juhudi zinaendelea katika nyanja mbalimbali. Makampuni ya teknolojia na watafiti wanawekeza katika zana za kugundua na mifumo ya uthibitisho (kama alama za kidijitali au viwango vya uthibitishaji wa maudhui) kusaidia watu kutofautisha maudhui halisi na bandia. Watunga sera duniani kote pia wanachunguza sheria za kudhibiti matumizi mabaya zaidi ya deepfake – kwa mfano, marufuku ya picha za ngono za uongo, habari potofu za uchaguzi, au kuhitaji kufichua wakati maudhui yamebadilishwa na AI.

Hata hivyo, kanuni pekee ni changamoto kutokana na kasi ya maendeleo ya teknolojia na urahisi wa kuvuka mipaka ya kisheria. Elimu na uhamasishaji ni muhimu pia: programu za uwezo wa kidijitali zinaweza kufundisha umma jinsi ya kutathmini vyombo vya habari kwa makini na kutambua dalili za deepfake, kama watu walivyojifunza kutambua ulaghai wa barua pepe au jaribio la wizi wa taarifa.

Ikiwa watumiaji wanajua kuwa video “kamili” au za kusisimua zinaweza kuwa bandia, wanaweza kuzingatia hilo kabla ya kutoa majibu au kushiriki.

>>> Bonyeza kujifunza zaidi:

Nafasi ya AI katika enzi ya kidijitali

Masuala ya AI na usalama wa data

Kuelekeza Enzi ya Deepfake


Mwishowe, tukio la deepfake lipo hapa kubaki – “jini amejitokeza kutoka chupa na hatuwezi kumrudisha nyuma”. Badala ya kuogopa au marufuku kamili, wataalamu wanapendekeza njia ya uwiano: kuhimiza ubunifu unaowajibika katika vyombo vya habari bandia huku tukitengeneza kinga madhubuti dhidi ya matumizi mabaya.

Hii inamaanisha kukuza matumizi chanya (katika burudani, elimu, upatikanaji, n.k.) chini ya miongozo ya maadili, na kwa wakati mmoja kuwekeza katika hatua za usalama, mifumo ya kisheria, na kanuni za kuadhibu matumizi mabaya. Kwa kushirikiana – wataalamu wa teknolojia, wasimamizi, makampuni, na wananchi – tunaweza kujenga mustakabali ambapo deepfake AI ni “kawaida, inajulikana na kuaminika”. Katika mustakabali huo, tunatumia ubunifu na urahisi wa deepfakes huku tukizingatia tahadhari na ustahimilivu dhidi ya aina mpya za udanganyifu zinazowezekana.

Fursa ni za kusisimua, na hatari ni halisi – kutambua yote ni hatua ya kwanza katika kuunda mazingira ya vyombo vya habari vinavyoendeshwa na AI vinavyonufaisha jamii kwa ujumla.

Marejeo ya Nje
Makala hii imetayarishwa kwa kuzingatia vyanzo vya nje vifuatavyo: