Akili Bandia (AI) leo imekuwa sehemu ya kawaida katika maisha ya kisasa, ikionekana katika nyanja zote kuanzia biashara hadi afya. Hata hivyo, ni wachache waliotarajia kwamba historia ya maendeleo ya AI ilianza katikati ya karne ya 20 na kupitia changamoto nyingi kabla ya kufikia mafanikio makubwa kama ilivyo sasa.

Makala hii INVIAI itatoa mtazamo wa kina kuhusu historia ya kuanzishwa na maendeleo ya AI, kuanzia mawazo ya awali, kupitia vipindi vigumu vya “majira ya baridi ya AI”, hadi mapinduzi ya kujifunza kwa kina na wimbi la AI ya ubunifu lililochipuka katika miaka ya 2020.

Miaka ya 1950: Mwanzo wa Akili Bandia

Miaka ya 1950 inachukuliwa kama mwanzo rasmi wa sekta ya AI. Mwaka 1950, mwanasayansi wa hisabati Alan Turing alichapisha makala “Computing Machinery and Intelligence”, ambapo alipendekeza jaribio maarufu la kutathmini uwezo wa mashine kufikiri – baadaye likajulikana kama jaribio la Turing. Hii ilichukuliwa kama hatua muhimu ya kuanzisha wazo kwamba kompyuta zinaweza “kufikiri” kama binadamu, kuweka msingi wa nadharia ya AI.

Mwaka 1956, neno “Artificial Intelligence” (akili bandia) lilizinduliwa rasmi. Katika majira ya joto ya mwaka huo, mwanasayansi wa kompyuta John McCarthy (Chuo Kikuu cha Dartmouth) pamoja na wenzake Marvin Minsky, Nathaniel Rochester (IBM) na Claude Shannon walifanya warsha ya kihistoria katika Chuo Kikuu cha Dartmouth.

McCarthy alipendekeza neno “akili bandia” (AI) kwa warsha hii, na tukio la Dartmouth 1956 linachukuliwa kama kuanzishwa kwa sekta ya AI. Huko, wanasayansi jasiri walitangaza “kila kipengele cha kujifunza au akili kinaweza kuigwa na mashine”, kuweka malengo makubwa kwa sekta hii mpya.

Mwisho wa miaka ya 1950 uliona mafanikio ya awali ya AI. Mwaka 1951, programu za AI za awali ziliandikwa kuendesha kwenye kompyuta Ferranti Mark I – ikiwemo programu ya kucheza draughts (checkers) ya Christopher Strachey na programu ya chess ya Dietrich Prinz, ikionyesha kompyuta zinaweza kucheza michezo ya akili.

Mwaka 1955, Arthur Samuel wa IBM alitengeneza programu ya kucheza draughts yenye uwezo wa kujifunza kutokana na uzoefu, kuwa mfumo wa kwanza wa machine learning (kujifunza kwa mashine). Wakati huo pia, Allen Newell, Herbert Simon na wenzake waliandika programu Logic Theorist (1956) – iliyoweza kuthibitisha kanuni za hisabati moja kwa moja, kuonyesha mashine zinaweza kufanya hoja za mantiki.

Mbali na algorithms, zana na lugha za programu maalum kwa AI zilizinduliwa katika miaka ya 1950. Mwaka 1958, John McCarthy alibuni lugha ya programu Lisp – iliyoundwa mahsusi kwa AI, na ikawa maarufu miongoni mwa watengenezaji AI. Mwaka huo huo, mwanasaikolojia Frank Rosenblatt alizindua Perceptron – mfano wa mtandao wa neva wa bandia wa kwanza wenye uwezo wa kujifunza kutoka kwa data. Perceptron ilichukuliwa kama msingi wa awali wa mitandao ya neva ya kisasa.

Mwaka 1959, Arthur Samuel alitumia kwa mara ya kwanza neno “machine learning” (kujifunza kwa mashine) katika makala muhimu, ikielezea jinsi kompyuta zinaweza kuprogramiwa kujifunza na kuboresha uwezo wa kucheza michezo zaidi ya mpangaji programu. Maendeleo haya yalionyesha matumaini makubwa: waanzilishi waliamini ndani ya miongo michache, mashine zinaweza kufikia akili kama binadamu.

Miaka ya 1950 - Mwanzo wa Akili Bandia

Miaka ya 1960: Hatua za Awali

Katika miaka ya 1960, AI iliendelea kukua kwa miradi na uvumbuzi muhimu. Maabara za AI zilianzishwa katika vyuo vikuu maarufu (MIT, Stanford, Carnegie Mellon...), zikivutia utafiti na ufadhili. Kompyuta zilikuwa zenye nguvu zaidi, zikiruhusu majaribio ya mawazo magumu zaidi ya AI kuliko kipindi cha awali.

Moja ya mafanikio makubwa ilikuwa kuzaliwa kwa programu ya chatbot ya kwanza. Mwaka 1966, Joseph Weizenbaum wa MIT alitengeneza ELIZA, programu iliyofanana na mazungumzo ya mtu kwa mtindo wa daktari wa akili. ELIZA ilipangwa kwa urahisi (kutambua maneno muhimu na kutoa majibu ya mfano), lakini ilishangaza wengi waliidhani ELIZA ilielewa na ilikuwa na hisia. Mafanikio ya ELIZA yaliweka msingi kwa chatbot za kisasa na kuanzisha mjadala kuhusu tabia ya binadamu ya kuhusisha hisia na mashine.

Wakati huo pia, roboti wa akili wa kwanza walizaliwa. Kuanzia 1966 hadi 1972, Taasisi ya Utafiti ya Stanford (SRI) ilitengeneza Shakeyroboti wa kwanza wa kusonga mwenye uwezo wa kujitambua na kupanga hatua badala ya kufuata amri moja kwa moja. Shakey alikuwa na sensa na kamera za kujisogeza katika mazingira na kutekeleza kazi kama kutafuta njia, kusukuma vitu, kupanda mteremko... Hii ilikuwa mara ya kwanza mfumo uliounganisha maono ya kompyuta, usindikaji wa lugha asilia na upangaji katika roboti, kuweka msingi wa robotiki ya AI baadaye.

American Association of Artificial Intelligence (AAAI) pia ilianzishwa katika kipindi hiki (ikizaliwa kutoka mkutano wa IJCAI 1969 na kuanzishwa rasmi 1980) kuwaleta pamoja watafiti wa AI, ikionyesha jamii ya AI inayokua.

Zaidi ya hayo, miaka ya 1960 yalirekodi maendeleo ya mifumo ya wataalamu na algorithms msingi. Mwaka 1965, Edward Feigenbaum na wenzake walitengeneza DENDRALmfumo wa kwanza wa wataalamu duniani. DENDRAL ilitengenezwa kusaidia wanasayansi wa kemia kuchambua muundo wa molekuli kutoka data za majaribio, kwa kuiga maarifa na fikra za mtaalamu wa kemia. Mafanikio ya DENDRAL yalionyesha kompyuta zinaweza kusaidia kutatua matatizo ya kitaalamu magumu, kuweka msingi kwa mifumo ya wataalamu iliyochipuka miaka ya 1980.

Pia, lugha ya programu Prolog (mahususi kwa akili bandia ya mantiki) ilitengenezwa mwaka 1972 katika Chuo Kikuu cha Marseille, ikifungua njia ya AI inayotegemea mantiki na sheria za uhusiano. Mwaka 1969, Marvin Minsky na Seymour Papert walichapisha kitabu “Perceptrons”. Kitabu hiki kilionyesha vikwazo vya kihisabati vya mfano wa perceptron wa tabaka moja (hakiwezi kutatua tatizo rahisi la XOR), na kusababisha sekta ya mitandao ya neva kushukiwa sana.

Wafadhili wengi walipoteza imani na uwezo wa kujifunza wa mitandao ya neva, na tafiti wa mitandao ya neva ulipungua mwishoni mwa miaka ya 1960. Hii ilikuwa ishara ya kwanza ya “baridi” katika hamasa ya AI baada ya miongo kadhaa ya matumaini.

AI katika miaka ya 1960

Miaka ya 1970: Changamoto na “Majira ya Baridi ya AI” ya Kwanza

Katika miaka ya 1970, sekta ya AI ilikumbana na changamoto za uhalisia: matarajio makubwa kutoka kipindi cha awali hayakufikiwa kutokana na ukomo wa nguvu za kompyuta, data na uelewa wa kisayansi. Matokeo yake ni imani na ufadhili wa AI kuanza kupungua“majira ya baridi ya AI” ya kwanza.

Mwaka 1973, Sir James Lighthill alichoma moto kwa kutoa ripoti iitwayo “Artificial Intelligence: A General Survey” ikikosoa maendeleo ya utafiti wa AI. Ripoti ya Lighthill ilihitimisha kuwa watafiti wa AI walikuwa “waahidi mengi lakini walifanya kidogo”, hasa wakilalamika kwamba kompyuta hazikuweza kuelewa lugha au kuona kama ilivyotarajiwa.

Ripoti hii ilisababisha Serikali ya Uingereza kupunguza bajeti kwa AIkatikati ya miaka ya 1970 hadi mwanzo wa 1980, sekta ya AI ilikumbwa na ukweli wa kusimama kabisa, na ukosefu wa miradi ya mafanikio na ufadhili mzito. Hii ndiyo majira ya baridi ya AI – neno lililotumika mwaka 1984 kuelezea kipindi kirefu cha “kusimama” kwa utafiti wa AI.

Hata hivyo, miaka ya 1970 pia yalikuwa na mambo mazuriMifumo ya wataalamu iliendelea kuendelezwa katika mazingira ya kitaaluma, mfano ni MYCIN (1974) – mfumo wa wataalamu wa ushauri wa matibabu uliojengwa na Ted Shortliffe Stanford, kusaidia kugundua magonjwa ya damu. MYCIN ilitumia seti ya sheria za mantiki kutoa mapendekezo ya matibabu kwa usahihi mkubwa, kuonyesha thamani halisi ya mifumo ya wataalamu katika nyanja maalum.

Zaidi ya hayo, lugha ya Prolog (iliyotolewa mwaka 1972) ilianza kutumika katika matatizo ya usindikaji wa lugha na mantiki, ikawa zana muhimu kwa AI inayotegemea mantiki. Katika roboti, mwaka 1979 kundi la utafiti Stanford lilifanikiwa kutengeneza gari la kujitegemea la Stanford Cart – gari la roboti la kwanza kusonga katika chumba chenye vikwazo bila mdundo wa udhibiti wa mbali. Mafanikio haya madogo yalizaa msingi kwa utafiti wa magari yanayojiendesha baadaye.

Kwa ujumla, mwishoni mwa miaka ya 1970, tafiti la AI lilipata hali ya utulivu. Wanasayansi wengi wa AI walilazimika kubadilisha mwelekeo kwenda kwenye nyanja zinazohusiana kama machine learning, takwimu, roboti na maono ya kompyuta ili kuendelea na kazi zao.

AI haikuwa tena “nyota angavu” kama kipindi cha awali, bali ilibaki kuwa sekta ndogo yenye maendeleo machache. Kipindi hiki kilikumbusha watafiti kwamba akili bandia ni ngumu zaidi kuliko ilivyotarajiwa, na inahitaji mbinu mpya za kina badala ya kuiga tu mantiki ya awali.

AI katika miaka ya 1970

Miaka ya 1980: Mifumo ya Wataalamu – Kuibuka na Kushuka

Mwanzo wa miaka ya 1980, AI ilianza tena kipindi cha kuamka – mara nyingine ikitajwa kama “renaissance ya AI”. Msukumo huu ulitokana na mafanikio ya kibiashara ya mifumo ya wataalamu na mara nyingine tena kuongezeka kwa uwekezaji kutoka serikali na biashara. Kompyuta zilikuwa zenye nguvu zaidi, na jamii iliamini kuwa inawezekana kutekeleza mawazo ya AI katika maeneo maalum.

Motisha kubwa ilikuwa mifumo ya wataalamu ya kibiashara. Mwaka 1981, kampuni ya Digital Equipment Corporation ilizindua XCON (Expert Configuration) – mfumo wa wataalamu kusaidia kupanga mifumo ya kompyuta, ukihifadhi kampuni mamilioni ya dola. Mafanikio ya XCON yaliibua wimbi la maendeleo ya mifumo ya wataalamu katika biashara kusaidia maamuzi. Kampuni nyingi za teknolojia zilianzisha “maganda” ya mifumo ya wataalamu (expert system shell) ili kurahisisha ujenzi wa mifumo maalum kwa biashara.

Lugha ya Lisp pia ilitoka maabara na kuanzishwa mashine za Lisp (Lisp machine) – vifaa maalum vilivyoboreshwa kwa kuendesha programu za AI. Mwanzoni mwa miaka ya 1980, mfululizo wa kampuni za kuanzisha mashine za Lisp (Symbolics, Lisp Machines Inc.) zilizaliwa, zikisababisha msukumo mkubwa wa uwekezaji na kuanzisha “enzi ya mashine za Lisp” kwa AI.

Serikali kubwa pia zilitoa misaada mikubwa kwa AI wakati huu. Mwaka 1982, Japan ilizindua Mradi wa Kompyuta wa Kizazi cha Tano kwa bajeti ya dola milioni 850, kwa lengo la kuendeleza kompyuta za akili kwa kutumia mantiki na Prolog. Vivyo hivyo, Marekani (DARPA) iliongeza ufadhili kwa utafiti wa AI katika muktadha wa ushindani wa kiteknolojia na Japan. Miradi hii ililenga mifumo ya wataalamu, usindikaji wa lugha asilia na misingi ya maarifa, kwa matarajio ya kuunda kompyuta za akili zenye uwezo mkubwa.

Katikati ya wimbi jipya la matumaini, sekta ya mitandao ya neva bandia pia ilianza kuamka kimya kimya. Mwaka 1986, mtafiti Geoffrey Hinton na wenzake walitangaza algorithm ya Backpropagation (usambazaji wa nyuma) – njia bora ya kufundisha mitandao ya neva yenye tabaka nyingi, ikitatua kikomo cha kitabu cha Perceptrons (1969).

Kwa kweli, kanuni ya usambazaji wa nyuma ilianzishwa tangu mwaka 1970, lakini ilitumiwa kikamilifu tu katikati ya miaka ya 1980 kutokana na kuongezeka kwa nguvu za kompyuta. Algorithm ya backpropagation ilizindua wimbi la pili la utafiti wa mitandao ya neva. Wakati huu, imani kuwa mitandao ya neva ya kina inaweza kujifunza mifano ngumu ilianza kuibuka, ikitangaza msingi wa kujifunza kwa kina (deep learning) baadaye.

Watafiti vijana kama Yann LeCun (Ufaransa), Yoshua Bengio (Canada) walijiunga na harakati za mitandao ya neva wakati huu, wakitengeneza mifano ya mafanikio ya utambuzi wa maandishi mwishoni mwa miaka.

Hata hivyo, mafanikio ya pili ya AI hayakudumu kwa muda mrefu. Mwisho wa miaka ya 1980, sekta ya AI ilikumbwa na mgogoro tena kutokana na matokeo yasiyokidhi matarajio. Mifumo ya wataalamu ingawa ilikuwa na manufaa katika matumizi maalum, ilionyesha mapungufu: ilikuwa ngumu kubadilika, vigumu kupanuka na ilihitaji kusasishwa kwa mikono mara kwa mara.

Miradi mingi mikubwa ya mifumo ya wataalamu ilishindwa, na soko la mashine za Lisp pia lilishuka kutokana na ushindani wa kompyuta za kibinafsi za bei nafuu. Mwaka 1987, sekta ya mashine za Lisp karibu ilifilisika kabisa. Uwekezaji wa AI mara ya pili ulipunguzwa sana mwishoni mwa miaka ya 1980, na kusababisha “majira ya baridi ya AI” ya pili. Neno “AI winter” lililotumika mwaka 1984 lilithibitishwa wakati kampuni nyingi za AI zilifunga milango mwaka 1987–1988. Mara nyingine tena, sekta ya AI ilipata mzunguko wa kushuka, na watafiti walilazimika kurekebisha matarajio na mikakati yao.

Kwa muhtasari, miaka ya 1980 yalikuwa mzunguko wa mafanikio na kushuka kwa AI. Mifumo ya wataalamu ilisaidia AI kuingia katika tasnia kwa mara ya kwanza, lakini pia ilionyesha vikwazo vya mbinu za sheria za kudumu. Hata hivyo, kipindi hiki kilizaa mawazo na zana muhimu: kutoka algorithms za mitandao ya neva hadi misingi ya maarifa ya awali. Mafunzo ya thamani kuhusu kuepuka matarajio ya kupita kiasi yalipatikana, kuweka msingi wa njia za tahadhari zaidi katika miongo inayofuata.

AI katika miaka ya 1980

Miaka ya 1990: AI Kurudi Katika Maisha Halisi

Baada ya majira ya baridi ya AI mwishoni mwa miaka ya 1980, imani kwa AI ilianza kupona katika miaka ya 1990 kutokana na maendeleo ya vitendo. Badala ya kuzingatia AI yenye nguvu (akili bandia ya jumla) yenye matarajio makubwa, watafiti walizingatia AI dhaifu – kutumia mbinu za AI katika matatizo maalum ambapo matokeo yalikuwa ya kuvutia. Sekta nyingi zilijitenga kutoka AI (kama utambuzi wa sauti, maono ya kompyuta, algorithms za utafutaji, mifumo ya maarifa...) na kuendelea kukua kwa nguvu na kutumika sana.

Hatua muhimu ilianza mafanikio ya vitendo mwezi Mei 1997, kompyuta Deep Blue ya IBM ilimshinda bingwa wa dunia wa chess Garry Kasparov katika mechi rasmi. Hii ilikuwa mara ya kwanza mfumo wa AI kushinda bingwa wa dunia katika mchezo wa akili mgumu, ikivutia umma kwa kiasi kikubwa.

Ushindi wa Deep Blue – ulioegemea algorithms za utafutaji wa brute-force na hifadhidata ya mchezaji wa awali – ulionyesha nguvu kubwa za kompyuta na mbinu maalum zinazoweza kumsaidia mashine kushinda binadamu katika kazi za uhakika. Tukio hili lilikuwa kurudi kwa mafanikio makubwa ya AI kwenye vyombo vya habari, likichochea hamasa ya utafiti baada ya miaka ya ukimya.

Sio tu katika chess, AI ya miaka ya 1990 ilipata maendeleo katika nyanja nyingine. Katika michezo, mwaka 1994 programu Chinook ilitatua kabisa mchezo wa draughts (checkers) na kuwa bingwa usio na mshindani, ikifanya bingwa wa dunia kukubali kushindwa na kompyuta.

Katika utambuzi wa sauti, mifumo ya kibiashara kama Dragon Dictate (1990) ilianza kuonekana, na mwishoni mwa miaka hiyo, programu za utambuzi wa sauti zilitumika sana kwenye kompyuta za kibinafsi. Utambuzi wa maandishi ya mkono pia ulijumuishwa kwenye vifaa vya PDA (msaidizi wa kidijitali) kwa usahihi unaoongezeka.

Matumizi ya maono ya kompyuta (machine vision) yalianza kutumika katika viwanda, kutoka ukaguzi wa sehemu hadi mifumo ya usalama. Hata tafsiri ya mashine – eneo lililowakosesha moyo watafiti wa AI miaka ya 60 – pia ilipata maendeleo makubwa kwa mfumo wa SYSTRAN unaosaidia tafsiri ya lugha nyingi kwa Umoja wa Ulaya.

Njia nyingine muhimu ilikuwa machine learning ya takwimu na mitandao ya neva kutumika kuchambua data kubwa. Mwisho wa miaka ya 1990 uliona mlipuko wa Internet, ukileta data nyingi sana. Mbinu za uchimbaji data (data mining) na algorithms za machine learning kama miti ya maamuzi, mitandao ya neva, modeli za Markov zilizofichwa... zilitumika kuchambua data za wavuti, kuboresha zana za utafutaji na kubinafsisha maudhui.

Neno “sayansi ya data” halikuwa maarufu, lakini AI ilianza kuingilia mifumo ya programu ili kuboresha utendaji kwa kujifunza kutoka kwa data za watumiaji (mfano: vichujio vya barua taka, mapendekezo ya bidhaa katika biashara mtandao). Mafanikio haya madogo lakini ya maana yalisaidia AI kupata sifa nzuri tena

Kwa ujumla, miaka ya 1990 ilikuwa kipindi cha AI “kimya lakini imara kuingia maisha ya kila siku”. Badala ya matamko makubwa kuhusu akili kama ya binadamu, watengenezaji walizingatia kutatua matatizo maalum. Matokeo, AI ilikuwepo katika bidhaa nyingi za teknolojia mwishoni mwa karne ya 20 bila watumiaji wengi kutambua – kutoka michezo, programu hadi vifaa vya elektroniki. Kipindi hiki pia kilitengeneza msingi muhimu wa data na algorithms, kikisaidia AI kujiandaa kwa mlipuko wa miaka ijayo.

AI katika miaka ya 1990

Miaka ya 2000: Machine Learning na Enzi ya Data Kubwa

Kuanzia karne ya 21, AI ilibadilika kwa kasi kutokana na Internet na enzi ya data kubwa. Miaka ya 2000 iliona mlipuko wa kompyuta za kibinafsi, mtandao wa Internet na vifaa vya sensa, zikizalisha kiasi kikubwa cha data. Machine learning – hasa mbinu za kujifunza kwa usimamizi – zilikuwa zana kuu za kuchimba “chini ya ardhi” ya data hii.

Kauli mbiu “data ni mafuta mapya” ilipata umaarufu, kwa sababu kadri data inavyoongezeka, algorithms za AI zinavyoongezeka usahihi. Makampuni makubwa ya teknolojia yalianzisha mifumo ya kukusanya na kujifunza kutoka kwa data za watumiaji kuboresha bidhaa zao: Google na zana zake za utafutaji, Amazon na mapendekezo ya ununuzi, Netflix na algorithms za mapendekezo ya filamu. AI ikawa “ubongo” wa kimya nyuma ya majukwaa ya kidijitali.

Mwaka 2006 alionyesha tukio muhimu: Fei-Fei Li, profesa wa Chuo Kikuu cha Stanford, alianza mradi wa ImageNet – hifadhidata kubwa yenye picha zaidi ya milioni 14 zilizoainishwa kwa kina. Ilizinduliwa mwaka 2009, ImageNet ikawa hifadhidata ya kawaida kwa mafunzo na tathmini ya algorithms za maono ya kompyuta, hasa utambuzi wa vitu katika picha.

ImageNet ililinganishwa na “doping” lililochochea utafiti wa deep learning baadaye, kwa kutoa data ya kutosha kwa mifano ya kujifunza kwa kina. Mashindano ya ImageNet Challenge kila mwaka tangu 2010 yalikuwa jukwaa muhimu la kuonyesha maendeleo ya algorithms bora za utambuzi picha. Kutoka hapa, mabadiliko makubwa ya AI yalitokea mwaka 2012 (tazama sehemu ya miaka ya 2010).

Pia katika miaka ya 2000, AI ilipata mafanikio katika matumizi makubwa:

  • Mwaka 2005, gari la kujitegemea la Stanford (“Stanley”) lilishinda DARPA Grand Challenge – mashindano ya magari ya kujitegemea jangwani kwa umbali wa km 212. Stanley lilimaliza safari kwa saa 6:53, likifungua enzi mpya ya magari yanayojiendesha na kuvutia uwekezaji mkubwa kutoka Google, Uber baadaye.
  • Msaidizi wa sauti kwenye simu ulianza kuonekana: mwaka 2008, programu ya Google Voice Search iliruhusu utafutaji kwa sauti kwenye iPhone; na kilele ni Apple Siri (ilizinduliwa 2011) – msaidizi wa sauti aliyejumuishwa kwenye iPhone. Siri ilitumia teknolojia ya utambuzi wa sauti, kuelewa lugha asilia na kuunganishwa na huduma za wavuti, ikionyesha AI ikianza kufikia umma kwa wingi.
  • Mwaka 2011, kompyuta kubwa IBM Watson ilishinda wachezaji wawili bingwa wa mchezo wa maswali Jeopardy! kwenye televisheni ya Marekani. Watson ilikuwa na uwezo wa kuelewa maswali magumu ya Kiingereza na kupata majibu kutoka data kubwa, ikionyesha nguvu ya AI katika usindikaji wa lugha asilia na utafutaji wa taarifa. Ushindi huu ulithibitisha kompyuta zinaweza “kuelewa” na kutoa majibu ya akili katika nyanja pana za maarifa.
  • Mitandao ya kijamii na wavuti: Facebook ilizindua kipengele cha kutambua uso na kuweka lebo kwa picha (karibu 2010), ikitumia machine learning kwenye data za picha za watumiaji. YouTube na Google zilitumia AI kusafisha maudhui na kupendekeza video. Mbinu za machine learning zilifanya kazi kimya kimya nyuma ya majukwaa, kusaidia kuboresha uzoefu wa mtumiaji bila wao hata kujua.

Kwa ujumla, motisha kuu ya AI katika miaka ya 2000 ilikuwa data na matumizi. Algorithms za machine learning za jadi kama regression, SVM, miti ya maamuzi zilitekelezwa kwa kiwango kikubwa, zikileta matokeo ya vitendo.

AI kutoka kuwa mada ya utafiti ilibadilika kuwa sekta ya viwanda: “AI kwa biashara” ikawa mada moto, na makampuni mengi yakitoa suluhisho za AI katika usimamizi, fedha, masoko... Mwaka 2006, neno “akili bandia ya biashara” (enterprise AI) lilianza kutumika, likisisitiza matumizi ya AI kuongeza ufanisi wa biashara na maamuzi.

Mwisho wa miaka ya 2000 pia uliona mwanzo wa mapinduzi ya kujifunza kwa kina. Utafiti wa mitandao ya neva yenye tabaka nyingi uliendelea kuzaa matunda. Mwaka 2009, kundi la Andrew Ng Stanford lilitangaza matumizi ya GPU (processor ya picha) kufundisha mitandao ya neva kwa kasi mara 70 zaidi kuliko CPU za kawaida.

Nguvu ya usindikaji sambamba ya GPU ilifaa sana kwa hesabu za mitandao ya neva, ikifungua njia ya kufundisha mifano mikubwa ya deep learning katika miaka ya 2010. Vipande vya mwisho vya msingi – data kubwa, vifaa imara, algorithms bora – vilikuwa tayari, vikinusurika tu wakati wa mlipuko mpya wa AI.

AI katika miaka ya 2000

Miaka ya 2010: Mapinduzi ya Kujifunza kwa Kina (Deep Learning)

Ikiwa tunapaswa kuchagua kipindi ambacho AI ilipaa kweli, basi ni miaka ya 2010. Kwa msingi wa data na vifaa kutoka miongo iliyopita, akili bandia ilianza enzi ya kujifunza kwa kina (deep learning) – mitandao ya neva yenye tabaka nyingi ilipata mafanikio makubwa, kuvunja rekodi zote katika kazi mbalimbali za AI. Ndoto ya mashine “kujifunza kama ubongo wa binadamu” ilianza kuwa halisi kupitia algorithms za deep learning.

Mabadiliko makubwa yalitokea mwaka 2012, wakati kundi la Geoffrey Hinton na wanafunzi wake (Alex Krizhevsky, Ilya Sutskever) walishiriki katika mashindano ya ImageNet Challenge. Mfano wao – maarufu kama AlexNet – ulikuwa mtandao wa neva wa convolution wenye tabaka 8 uliotumia GPU kufundisha. Matokeo, AlexNet ilipata usahihi wa hali ya juu sana, kupunguza makosa ya utambuzi wa picha kwa nusu ikilinganishwa na mshindani wa pili.

Ushindi huu wa kushangaza ulisababisha msukumo mkubwa kwa jamii ya maono ya kompyuta na kuashiria kuibuka kwa “homa ya deep learning” katika AI. Katika miaka michache iliyofuata, mbinu nyingi za utambuzi wa picha za jadi zilibadilishwa na mifano ya deep learning.

Mafanikio ya AlexNet yalithibitisha kuwa kwa data ya kutosha (ImageNet) na nguvu za kompyuta (GPU), mitandao ya neva ya kina inaweza kuzidi mbinu nyingine za AI. Hinton na wenzake walikimbizwa na Google, na deep learning ikawa mada moto katika utafiti wa AI tangu wakati huo.

Deep learning haikubadilisha tu maono ya kompyuta bali pia ilienea katika usindikaji wa sauti, lugha na nyanja nyingine. Mwaka 2012, Google Brain (mradi wa Andrew Ng na Jeff Dean) ulipata umaarufu kwa kutangaza mtandao wa neva wa kujifunza kutazama video za YouTube na kugundua dhana ya “paka” bila lebo za awali.

Kati ya 2011–2014, wasaidizi wa sauti kama Siri, Google Now (2012) na Microsoft Cortana (2014) walizinduliwa, wakitumia maendeleo katika utambuzi wa sauti na kuelewa lugha asilia. Mfano, mfumo wa utambuzi wa sauti wa Microsoft ulifikia usahihi wa binadamu mwaka 2017, hasa kwa kutumia mitandao ya neva ya kina kwa sauti. Katika tafsiri, mwaka 2016 Google Translate ilibadilisha mfumo wake kuwa tafsiri ya mashine kwa mitandao ya neva (NMT), ikiboresha ubora wa tafsiri ikilinganishwa na mifano ya takwimu ya zamani.

Tukio lingine muhimu lilikuwa ushindi wa AI katika mchezo wa Go – hatua iliyochukuliwa kuwa ngumu sana. Mwezi Machi 2016, programu AlphaGo ya DeepMind (Google) ilimshinda bingwa wa dunia wa Go Lee Sedol kwa alama 4-1. Go ni mchezo mgumu zaidi kuliko chess, na idadi ya mikakati ni kubwa mno kwa brute-force. AlphaGo ilichanganya deep learning na algorithm ya Monte Carlo Tree Search, ikijifunza kucheza kupitia mamilioni ya michezo ya binadamu na kujichezea yenyewe.

Ushindi huu ulilinganishwa na mechi ya Deep Blue-Kasparov 1997, ukithibitisha AI inaweza kuzidi binadamu katika nyanja zinazohitaji hisia na uzoefu. Baada ya AlphaGo, DeepMind ilizindua AlphaGo Zero (2017) iliyojiendeleza yenyewe kutoka sheria za mchezo, bila data za binadamu, na bado ikishinda toleo la zamani kwa alama 100-0. Hii ilionyesha uwezo wa kujifunza kwa kuimarisha (reinforcement learning) pamoja na deep learning kufikia utendaji wa hali ya juu sana.

Mwaka 2017, uvumbuzi mkubwa ulizaliwa katika usindikaji wa lugha: usanifu wa Transformer. Watafiti wa Google walitangaza mfano wa Transformer katika makala “Attention Is All You Need”, wakipendekeza mfumo wa self-attention unaoruhusu mifano kujifunza uhusiano kati ya maneno katika sentensi bila kufuata mfuatano wa kawaida.

Transformer ulisaidia kufundisha mifano mikubwa ya lugha (LLM) kwa ufanisi zaidi ikilinganishwa na usanifu wa zamani (RNN/LSTM). Tangu hapo, mifano mingi ya lugha iliyoboreshwa kwa msingi wa Transformer ilizaliwa: BERT (Google, 2018) kwa kuelewa muktadha, na hasa GPT (Generative Pre-trained Transformer) ya OpenAI iliyoanzishwa mwaka 2018.

Mifano hii ilipata matokeo bora katika kazi za lugha kama uainishaji, majibu ya maswali hadi uandishi wa maandishi. Transformer uliweka msingi wa mbio za mifano mikubwa ya lugha katika miaka ya 2020.

Mwisho wa miaka ya 2010 pia uliona kuibuka kwa AI ya ubunifu (generative AI) – mifano ya AI yenye uwezo wa kuunda maudhui mapya. Mwaka 2014, Ian Goodfellow na wenzake walibuni mfano wa GAN (Generative Adversarial Network), unaojumuisha mitandao miwili ya neva inayopingana kuunda data bandia inayofanana na halisi.

GAN ilijulikana kwa uwezo wake wa kutengeneza picha za watu wa bandia kwa uhalisia mkubwa (deepfake). Sambamba, mifano ya autoencoder ya aina tofauti (VAE) na mifumo ya kubadilisha mtindo (style transfer) pia ilizalishwa, ikiruhusu kubadilisha picha na video kwa mitindo mipya.

Mwaka 2019, OpenAI ilizindua GPT-2 – mfano wa maandishi wenye parameters bilioni 1.5, uliozua tahadhari kwa uwezo wake wa kuandika maandishi marefu kwa mtindo wa binadamu. Ni wazi, AI sasa haijazuiliwa tu kwa kuainisha au kutabiri, bali pia inaweza kuunda maudhui kwa ubunifu kwa njia ya kuvutia.

AI katika miaka ya 2010 ilipata maendeleo makubwa zaidi ya matarajio. Kazi nyingi zilizochukuliwa kuwa zisizowezekana kwa kompyuta sasa AI imeweza kuzifanya au kuzizidi: utambuzi wa picha, utambuzi wa sauti, tafsiri, kucheza michezo ngumu...

Zaidi ya yote, AI ilianza kuingia katika maisha ya kila siku: kutoka kamera za simu za mkononi zinazotambua uso, wasaidizi wa sauti katika spika za akili (Alexa, Google Home), hadi mapendekezo ya maudhui kwenye mitandao ya kijamii yote yanatengenezwa na AI. Hii ni kweli kipindi cha mlipuko wa AI, ambapo wengi walisema “AI ni umeme mpya” – teknolojia ya msingi inayobadilisha sekta zote.

AI katika miaka ya 2010

Miaka ya 2020: Mlipo wa AI ya Ubunifu na Mwelekeo Mpya

Katika miaka michache ya mwanzo ya 2020, AI ilichipuka kwa kasi isiyowahi kutokea, hasa kutokana na kuibuka kwa AI ya ubunifu (Generative AI) na mifano mikubwa ya lugha (LLM). Mifumo hii iliruhusu AI kuwasiliana moja kwa moja na mamilioni ya watumiaji, kuunda wimbi la matumizi ya ubunifu na kuanzisha mijadala mikubwa ya kijamii kuhusu athari za AI.

Mwezi Juni 2020, OpenAI ilizindua GPT-3 – mfano mkubwa wa lugha wenye parameters bilioni 175, mara 10 zaidi ya mfano mkubwa zaidi wa awali. GPT-3 ilishangaza kwa uwezo wake wa kuandika maandishi, kujibu maswali, kuimba mashairi, kuandika programu... kwa mtindo wa binadamu, ingawa bado ina makosa ya mara kwa mara. Nguvu ya GPT-3 ilionyesha ukubwa wa mfano pamoja na kiasi kikubwa cha data za mafunzo kinaweza kuleta uwezo wa lugha laini usio na mfano. Programu zinazotegemea GPT-3 zilizuka haraka, kutoka uandishi wa masoko, msaada wa barua pepe hadi msaada wa programu.

Mwezi Novemba 2022, AI ilitokea hadharani kwa mara ya kwanza kwa uzinduzi wa ChatGPT – chatbot ya mazungumzo iliyoendelezwa na OpenAI, ikitumia mfano wa GPT-3.5. Ndani ya siku 5, ChatGPT ilifikia watumiaji milioni 1, na ndani ya miezi 2 ilizidi watumiaji milioni 100, ikawa programu ya matumizi ya haraka zaidi katika historia.

ChatGPT ina uwezo wa kujibu maswali mengi kwa ufasaha, kutoka kuandika maandishi, kutatua hesabu, ushauri... ikiwashangaza watumiaji kwa “akili” na ufanisi wake. Umaarufu wa ChatGPT ulionyesha AI kwa mara ya kwanza kutumika kwa wingi kama zana ya ubunifu, na kuanzisha mbio za AI kati ya makampuni makubwa ya teknolojia.

Mapema 2023, Microsoft ilijumuisha GPT-4 (mfano wa OpenAI unaofuata) katika zana ya utafutaji Bing, wakati Google ilizindua chatbot Bard inayotumia mfano wa LaMDA wa kampuni hiyo. Ushindani huu ulisaidia teknolojia ya AI ya ubunifu kufikia watu wengi zaidi na kuboreshwa kwa kasi.

Mbali na maandishi, AI ya ubunifu katika picha na sauti pia ilipata maendeleo makubwa. Mwaka 2022, mifano ya text-to-image kama DALL-E 2 (OpenAI), Midjourney na Stable Diffusion iliruhusu watumiaji kuingiza maelezo ya maandishi na kupokea picha zilizotengenezwa na AI. Ubora wa picha hizi ulikuwa wa ajabu na ubunifu, ukifungua enzi mpya ya ubunifu wa maudhui ya kidijitali.

Hata hivyo, pia ilileta changamoto kuhusu haki miliki na maadili, kwani AI ilijifunza kutoka kwa picha za wasanii na kuunda kazi zinazofanana. Katika sauti, mifano ya text-to-speech ya kizazi kipya inaweza kubadilisha maandishi kuwa sauti inayofanana kabisa na ya binadamu, hata kuiga sauti za watu maarufu, ikileta wasiwasi kuhusu deepfake za sauti.

Mwaka 2023, kesi za kwanza za kisheria kuhusu haki miliki za data za mafunzo ya AI zilianza – mfano kampuni ya Getty Images ikimkabili Stability AI (mwenye Stable Diffusion) kwa kutumia mamilioni ya picha zilizo na haki miliki bila ruhusa. Hii inaonyesha pande mbaya za mlipuko wa AI: masuala ya kisheria, maadili na kijamii yalianza kuibuka, yanahitaji umakini mkubwa.

Katika hali ya msukumo wa AI, mwaka 2023 uliona wataalamu kuwa na wasiwasi kuhusu hatari za AI yenye nguvu. Zaidi ya watu 1,000 katika sekta ya teknolojia (wakiwemo Elon Musk, Steve Wozniak, watafiti wa AI...) walisaini barua ya wazi kuitaka kusitishwa kwa miezi 6 mafunzo ya mifano mikubwa zaidi ya GPT-4, kwa hofu maendeleo ya haraka yasiyoweza kudhibitiwa.

Mwaka huo huo, waasisi kama Geoffrey Hinton (mmoja wa “baba wa deep learning”) walitoa onyo kuhusu hatari ya AI kupita udhibiti wa binadamu. Kamati ya Ulaya ilikamilisha haraka Sheria ya AI (EU AI Act) – kanuni kamili ya kwanza duniani kuhusu akili bandia, inayotarajiwa kuanza kutumika mwaka 2024. Sheria hii inakataza mifumo ya AI inayochukuliwa kuwa “hatari isiyokubalika” (kama ufuatiliaji wa wingi, alama za kijamii) na kuhitaji uwazi kwa mifano ya AI ya jumla.

Marekani, majimbo mengi yameanzisha sheria za kuzuia matumizi ya AI katika nyanja nyeti (ajira, fedha, kampeni za uchaguzi, n.k.). Ni wazi, ulimwengu unaharakisha kuunda mfumo wa kisheria na maadili kwa AI, sehemu muhimu ya maendeleo ya teknolojia yenye athari kubwa.

Kwa ujumla, miaka ya 2020 inaonyesha mlipuko wa AI kiufundi na kwa umaarufu. Zana mpya za AI kama ChatGPT, DALL-E, Midjourney... zimekuwa za kawaida, zikisaidia mamilioni ya watu kuunda na kufanya kazi kwa ufanisi zaidi kwa njia zisizowahi kuwepo.

Pia, mbio za uwekezaji katika AI zinaendelea kwa kasi: makadirio yanaonyesha matumizi ya AI ya ubunifu na makampuni yatazidi dola bilioni 1 katika miaka ijayo. AI pia inaingia kwa kina katika sekta mbalimbali: afya (msaada wa uchunguzi wa picha, utafutaji wa dawa mpya), fedha (uchambuzi wa hatari, kugundua udanganyifu), elimu (mwalimu wa mtandaoni, maudhui ya kujifunza binafsi), usafiri (magari yanayojiendesha), ulinda taifa (maamuzi ya kimkakati), n.k.

Inaweza kusemwa, AI sasa ni kama umeme au Internet – miundombinu ya teknolojia ambayo makampuni na serikali zote zinataka kuitumia. Wataalamu wengi wana matumaini kuwa AI itaendelea kuleta maendeleo makubwa katika uzalishaji na ubora wa maisha ikiwa itatengenezwa na kusimamiwa ipasavyo.

AI katika miaka ya 2020


Kuanzia miaka ya 1950 hadi sasa, historia ya maendeleo ya AI imepitia safari ya kushangaza – yenye matamanio, kukata tamaa, kisha mafanikio makubwa. Kuanzia warsha ndogo ya Dartmouth 1956 iliyoweka msingi wa sekta, AI imepata mara mbili majira ya baridi kutokana na matarajio makubwa, lakini kila mara imeibuka tena kwa nguvu zaidi kutokana na uvumbuzi wa kisayansi na kiteknolojia. Hasa katika miaka 15 iliyopita, AI imepata maendeleo makubwa, ikitoka maabara hadi maisha halisi na kuleta athari kubwa.

Kwa sasa, AI ipo katika karibu kila sekta na inaendelea kuwa mwerevu na yenye uwezo zaidi. Hata hivyo, lengo la AI yenye nguvu (akili bandia ya jumla) – mashine yenye akili inayobadilika kama binadamu – bado liko mbele yetu.

Mifano ya AI ya sasa ni ya kuvutia lakini bado ni maalum kwa kazi walizofundishwa, na wakati mwingine hufanya makosa ya kijinga (kama ChatGPT inaweza “kudanganya” kwa kutoa taarifa zisizo sahihi kwa kujiamini sana). Changamoto za usalama na maadili pia zinahitaji umakini mkubwa: kuhakikisha AI inakua kwa udhibiti, uwazi na kwa manufaa ya pamoja ya binadamu.

Safari inayofuata ya AI inaahidi kuwa ya kusisimua sana. Kwa maendeleo ya sasa, tunaweza kuona AI itaingia kwa kina zaidi katika maisha: kutoka kwa daktari wa AI kusaidia huduma za afya, wakili wa AI kutafuta sheria, hadi rafiki wa AI wa kusoma na kusikiliza.

Teknolojia kama neuromorphic computing inatafitiwa kuiga usanifu wa ubongo wa binadamu, inaweza kuleta kizazi kipya cha AI chenye ufanisi na karibu na akili asilia. Ingawa AI kuzidi akili ya binadamu bado ni mjadala, ni wazi AI itaendelea kuendelea kubadilika na kuunda mustakabali wa binadamu kwa njia za kina.

Kurejea historia ya kuanzishwa na maendeleo ya AI, tunaona hadithi ya uvumilivu na ubunifu usioisha wa binadamu. Kuanzia kompyuta za awali za hesabu, binadamu wamefundisha mashine kucheza michezo, kuendesha magari, kutambua dunia na hata kuunda sanaa. Akili bandia imekuwa, iko, na itaendelea kuwa ushahidi wa uwezo wetu wa kuvuka mipaka.

Jambo muhimu ni kwamba tumepata somo kutoka historia – kujua kuweka matarajio sahihi, kuendeleza AI kwa uwajibikaji – ili kuhakikisha AI inaleta faida kubwa zaidi kwa binadamu