Kecerdasan buatan (AI) kini telah menjadi sebahagian yang biasa dalam kehidupan moden, muncul dalam pelbagai bidang dari perniagaan hingga perubatan. Namun, sedikit yang menyangka bahawa sejarah perkembangan AI bermula sejak pertengahan abad ke-20 dan melalui pelbagai liku sebelum mencapai pencapaian luar biasa seperti sekarang.

Artikel ini INVIAI akan memberikan pandangan terperinci mengenai sejarah penubuhan dan perkembangan AI, dari idea awal yang primitif, melalui fasa “musim sejuk AI” yang penuh cabaran, hingga revolusi pembelajaran mendalam dan gelombang ledakan AI generatif pada dekad 2020.

Dekad 1950: Permulaan Kecerdasan Buatan

Tahun 1950-an dianggap sebagai permulaan rasmi bidang AI. Pada tahun 1950, ahli matematik Alan Turing menerbitkan artikel “Computing Machinery and Intelligence”, di mana beliau mencadangkan ujian terkenal untuk menilai kemampuan pemikiran mesin – yang kemudian dikenali sebagai ujian Turing. Ini dianggap sebagai titik tolak yang membuka idea bahawa komputer boleh “berfikir” seperti manusia, meletakkan asas teori untuk AI.

Pada tahun 1956, istilah “Artificial Intelligence” (kecerdasan buatan) secara rasmi diperkenalkan. Pada musim panas tahun itu, saintis komputer John McCarthy (Universiti Dartmouth) bersama rakan sekerja seperti Marvin Minsky, Nathaniel Rochester (IBM) dan Claude Shannon menganjurkan seminar bersejarah di Universiti Dartmouth.

McCarthy mencadangkan istilah “kecerdasan buatan” (AI) untuk seminar ini, dan acara Dartmouth 1956 sering dianggap sebagai kelahiran bidang AI. Di sini, para saintis berani mengisytiharkan “semua aspek pembelajaran atau kecerdasan boleh ditiru oleh mesin”, menetapkan matlamat yang ambisius untuk bidang baru ini.

Akhir tahun 1950 menyaksikan banyak pencapaian awal AI. Pada tahun 1951, program AI awal telah ditulis untuk dijalankan pada komputer Ferranti Mark I – yang paling menarik adalah program bermain dam (checkers) oleh Christopher Strachey dan program bermain catur oleh Dietrich Prinz, menandakan pertama kali komputer mampu bermain permainan intelektual.

Pada tahun 1955, Arthur Samuel di IBM membangunkan program bermain dam yang mampu belajar sendiri dari pengalaman, menjadi sistem machine learning (pembelajaran mesin) awal yang pertama. Pada masa yang sama, Allen Newell, Herbert Simon dan rakan sekerja menulis program Logic Theorist (1956) – yang boleh membuktikan teorem matematik secara automatik, menunjukkan mesin boleh melakukan penalaran logik.

Selain algoritma, alat dan bahasa pengaturcaraan khusus untuk AI juga muncul pada dekad 1950. Pada tahun 1958, John McCarthy mencipta bahasa Lisp – bahasa pengaturcaraan yang direka khusus untuk AI, yang cepat menjadi popular dalam komuniti pembangunan AI. Pada tahun yang sama, ahli psikologi Frank Rosenblatt memperkenalkan Perceptron – model rangkaian neural buatan pertama yang mampu belajar dari data. Perceptron dianggap sebagai asas awal bagi rangkaian neural moden.

Pada tahun 1959, Arthur Samuel pertama kali menggunakan istilah “machine learning” (pembelajaran mesin) dalam sebuah artikel penting yang menerangkan bagaimana komputer boleh diprogram untuk belajar dan memperbaiki kemahiran bermain catur melebihi pencipta program itu sendiri. Perkembangan ini menunjukkan optimisme yang tinggi: para perintis percaya bahawa dalam beberapa dekad, mesin boleh mencapai kecerdasan seperti manusia.

Dekad 1950 - Permulaan Kecerdasan Buatan

Dekad 1960: Langkah Awal

Memasuki dekad 1960, AI terus berkembang dengan banyak projek dan penemuan penting. Makmal AI ditubuhkan di universiti terkemuka (MIT, Stanford, Carnegie Mellon...), menarik minat dan dana penyelidikan. Komputer pada masa ini semakin kuat, membolehkan ujian idea AI yang lebih kompleks berbanding dekad sebelumnya.

Satu pencapaian penting adalah kelahiran program chatbot pertama. Pada tahun 1966, Joseph Weizenbaum di MIT mencipta ELIZA, program yang meniru perbualan dengan pengguna dalam gaya seorang pakar psikologi. ELIZA diprogram dengan sangat mudah (berdasarkan pengecaman kata kunci dan respons contoh), tetapi mengejutkan ramai orang yang menganggap ELIZA benar-benar “memahami” dan mempunyai emosi. Kejayaan ELIZA bukan sahaja membuka jalan untuk chatbot moden tetapi juga menimbulkan persoalan tentang kecenderungan manusia untuk memberi emosi kepada mesin.

Pada masa yang sama, robot pintar pertama juga muncul. Dari 1966 hingga 1972, Institut Penyelidikan Stanford (SRI) membangunkan Shakeyrobot bergerak pertama yang mampu kesedaran diri dan merancang tindakan berbanding hanya mengikuti arahan tunggal. Robot Shakey dilengkapi sensor dan kamera untuk bergerak sendiri dalam persekitaran dan menganalisis tugas menjadi langkah asas seperti mencari laluan, menolak halangan, mendaki bukit dan sebagainya. Ini adalah kali pertama sistem menggabungkan penglihatan komputer, pemprosesan bahasa semula jadi dan perancangan dalam robot, meletakkan asas bagi bidang robotik AI kemudian.

Persatuan Kecerdasan Buatan Amerika (AAAI) juga ditubuhkan pada masa ini (bermula dari persidangan IJCAI 1969 dan penubuhan rasmi AAAI pada 1980) untuk mengumpulkan penyelidik AI, menunjukkan komuniti AI semakin berkembang.

Selain itu, dekad 1960 juga menyaksikan perkembangan sistem pakar dan algoritma asas. Pada tahun 1965, Edward Feigenbaum dan rakan sekerja membangunkan DENDRAL – dianggap sebagai sistem pakar pertama di dunia. DENDRAL direka untuk membantu ahli kimia menganalisis struktur molekul dari data eksperimen dengan meniru pengetahuan dan pemikiran pakar kimia. Kejayaan DENDRAL menunjukkan komputer boleh membantu menyelesaikan masalah khusus yang kompleks, meletakkan asas bagi sistem pakar yang berkembang pesat pada dekad 1980.

Selain itu, bahasa pengaturcaraan Prolog (khusus untuk AI logik) dibangunkan pada tahun 1972 di Universiti Marseille, membuka pendekatan AI berasaskan logik dan peraturan hubungan. Satu lagi pencapaian penting adalah pada tahun 1969, Marvin Minsky dan Seymour Papert menerbitkan buku “Perceptrons”. Buku ini menunjukkan had matematik model perceptron satu lapisan (tidak dapat menyelesaikan masalah XOR mudah), menyebabkan bidang rangkaian neural diragui secara serius.

Banyak penyokong kehilangan kepercayaan terhadap kemampuan pembelajaran rangkaian neural, dan penyelidikan rangkaian neural mula merosot pada akhir 1960-an. Ini adalah tanda awal “kemarau” dalam kegembiraan AI selepas lebih satu dekad optimisme.

AI pada dekad 1960

Dekad 1970: Cabaran dan “Musim Sejuk AI” Pertama

Memasuki dekad 1970, bidang AI menghadapi cabaran realiti: Banyak harapan besar dari dekad sebelumnya tidak tercapai kerana kekangan kuasa pengkomputeran, data dan pengetahuan saintifik. Akibatnya, kepercayaan dan dana untuk AI mula merosot dengan ketara pada pertengahan 1970-an – fasa ini kemudian dikenali sebagai “musim sejuk AI” pertama.

Pada tahun 1973, Sir James Lighthill menambah bahan bakar ke api dengan menerbitkan laporan bertajuk “Artificial Intelligence: A General Survey” yang menilai kemajuan penyelidikan AI secara negatif. Laporan Lighthill menyimpulkan bahawa penyelidik AI “menjanjikan terlalu banyak tetapi mencapai terlalu sedikit”, khususnya mengkritik ketidakmampuan komputer memahami bahasa atau penglihatan seperti yang diharapkan.

Laporan ini menyebabkan Kerajaan UK memotong hampir semua bajet AI. Di Amerika, agensi pembiayaan seperti DARPA juga mengalihkan pelaburan ke projek yang lebih praktikal. Akibatnya, dari pertengahan 1970 hingga awal 1980, bidang AI hampir beku, dengan sedikit penemuan dan kekurangan dana serius. Ini adalah musim sejuk AI – istilah yang diperkenalkan pada 1984 untuk menggambarkan fasa “beku” panjang dalam penyelidikan AI.

Walaupun sukar, dekad 1970 masih menyaksikan beberapa cahaya harapan dalam penyelidikan AI. Sistem pakar terus dibangunkan dalam persekitaran akademik, contohnya MYCIN (1974) – sistem pakar perubatan yang dibina oleh Ted Shortliffe di Stanford untuk membantu diagnosis jangkitan darah. MYCIN menggunakan set peraturan inferens untuk memberikan cadangan rawatan dengan ketepatan tinggi, membuktikan nilai praktikal sistem pakar dalam bidang khusus.

Selain itu, bahasa Prolog (diperkenalkan 1972) mula digunakan dalam masalah pemprosesan bahasa dan logik, menjadi alat penting untuk AI berasaskan logik. Dalam bidang robotik, pada tahun 1979, kumpulan penyelidik di Stanford berjaya membangunkan Stanford Cart – kenderaan robot pertama yang boleh bergerak sendiri melalui bilik penuh halangan tanpa kawalan jauh. Pencapaian ini walaupun kecil, meletakkan asas bagi penyelidikan kereta pandu sendiri kemudian.

Secara keseluruhan, akhir dekad 1970, penyelidikan AI berada dalam keadaan suram. Ramai saintis AI terpaksa beralih ke bidang berkaitan seperti pembelajaran mesin statistik, robotik dan penglihatan komputer untuk meneruskan kerja.

AI tidak lagi menjadi “bintang terang” seperti dekad sebelumnya, tetapi menjadi bidang khusus dengan sedikit kemajuan ketara. Fasa ini mengingatkan penyelidik bahawa kecerdasan buatan jauh lebih rumit daripada jangkaan, memerlukan pendekatan baru yang lebih mendalam berbanding hanya meniru penalaran.

AI pada dekad 1970

Dekad 1980: Sistem Pakar – Kebangkitan dan Kemerosotan

Pada awal dekad 1980, AI sekali lagi memasuki fasa kebangkitan – kadang-kadang disebut “AI renaissance”. Dorongan ini datang dari kejayaan komersial sistem pakar dan minat pelaburan semula dari kerajaan dan perusahaan. Komputer menjadi lebih kuat, dan komuniti percaya bahawa idea AI dalam skop terhad boleh direalisasikan.

Satu pemangkin utama adalah sistem pakar komersial. Pada tahun 1981, syarikat Digital Equipment Corporation melancarkan XCON (Expert Configuration) – sistem pakar yang membantu konfigurasi sistem komputer, menjimatkan syarikat puluhan juta dolar. Kejayaan XCON mendorong gelombang pembangunan sistem pakar dalam perniagaan untuk menyokong keputusan. Banyak syarikat teknologi melabur membangunkan “shell” sistem pakar supaya perusahaan boleh menyesuaikan sistem mereka sendiri.

Bahasa Lisp juga keluar dari makmal dengan kemunculan mesin Lisp (Lisp machine) – perkakasan khusus yang dioptimumkan untuk menjalankan program AI. Pada awal 1980-an, banyak syarikat permulaan mesin Lisp muncul (Symbolics, Lisp Machines Inc.), mencetuskan demam pelaburan dan dikenali sebagai “era mesin Lisp” untuk AI.

Kerajaan besar juga melabur besar dalam AI pada masa ini. Pada tahun 1982, Jepun memulakan Projek Komputer Generasi Kelima dengan bajet 850 juta USD untuk membangunkan komputer pintar menggunakan logik dan Prolog. Begitu juga, AS (DARPA) meningkatkan sokongan penyelidikan AI dalam persaingan teknologi dengan Jepun. Projek-projek ini fokus pada sistem pakar, pemprosesan bahasa semula jadi dan pangkalan pengetahuan dengan harapan menghasilkan komputer pintar unggul.

Di tengah gelombang optimisme baru, bidang rangkaian neural buatan juga bangkit semula secara senyap. Pada tahun 1986, penyelidik Geoffrey Hinton dan rakan sekerja menerbitkan algoritma Backpropagation (penyebaran balik) – kaedah berkesan untuk melatih rangkaian neural berlapis, menyelesaikan kekangan yang dibangkitkan dalam buku Perceptrons (1969).

Sebenarnya prinsip backpropagation telah dirangka sejak 1970, tetapi hanya pada pertengahan 1980-an ia dimanfaatkan sepenuhnya berkat peningkatan kuasa komputer. Algoritma backpropagation dengan cepat mencetuskan gelombang penyelidikan rangkaian neural kali kedua. Pada masa ini, keyakinan bahawa rangkaian neural dalam boleh belajar model kompleks mula tumbuh, menandakan asas bagi pembelajaran mendalam (deep learning) kemudian.

Penyelidik muda seperti Yann LeCun (Perancis), Yoshua Bengio (Kanada) turut menyertai gerakan rangkaian neural pada masa ini, membangunkan model pengecaman tulisan tangan yang berjaya pada akhir dekad.

Namun, kemakmuran kedua AI tidak bertahan lama. Pada akhir 1980-an, bidang AI kembali menghadapi krisis kerana hasil tidak memenuhi jangkaan. Sistem pakar walaupun berguna dalam aplikasi khusus, menunjukkan kelemahan: mereka kaku, sukar dikembangkan dan memerlukan kemas kini pengetahuan secara manual berterusan.

Banyak projek sistem pakar besar gagal, pasaran mesin Lisp juga runtuh kerana persaingan komputer peribadi yang lebih murah. Pada tahun 1987, industri mesin Lisp hampir muflis sepenuhnya. Pelaburan AI kedua dipotong dengan ketara pada akhir 1980-an, menyebabkan musim sejuk AI kedua. Istilah “AI winter” yang diperkenalkan pada 1984 menjadi kenyataan apabila banyak syarikat AI tutup pada 1987–1988. Sekali lagi, bidang AI memasuki kitaran kemerosotan, memaksa penyelidik menyesuaikan jangkaan dan strategi.

Kesimpulannya, dekad 1980 menandakan satu kitaran ledakan dan kemerosotan AI. Sistem pakar membantu AI menembusi dunia industri buat pertama kali, tetapi juga menunjukkan had pendekatan berasaskan peraturan tetap. Walaupun begitu, fasa ini menghasilkan banyak idea dan alat berharga: dari algoritma rangkaian neural hingga pangkalan pengetahuan awal. Pengajaran mahal tentang mengelakkan keterlaluan juga diambil, menjadi asas bagi pendekatan lebih berhati-hati pada dekad berikut.

AI pada tahun 1980-an

Dekad 1990: AI Kembali ke Dunia Nyata

Selepas musim sejuk AI akhir 1980-an, keyakinan terhadap AI mula pulih pada dekad 1990 berkat beberapa kemajuan praktikal. Daripada fokus pada AI kuat (kecerdasan buatan umum) yang ambisius, penyelidik menumpukan pada AI lemah – iaitu aplikasi teknik AI pada masalah khusus yang mula menunjukkan hasil mengagumkan. Banyak bidang turunan AI dari fasa sebelumnya (seperti pengenalan suara, penglihatan komputer, algoritma pencarian, sistem pangkalan pengetahuan...) berkembang pesat secara bebas dan digunakan secara meluas.

Satu pencapaian penting yang membuka jalan kepada kejayaan praktikal adalah pada Mei 1997, komputer Deep Blue IBM mengalahkan juara catur dunia Garry Kasparov dalam perlawanan rasmi. Ini adalah pertama kali sistem AI mengalahkan juara dunia dalam permainan intelektual kompleks, mengejutkan masyarakat.

Kemenangan Deep Blue – berdasarkan algoritma pencarian brute-force digabungkan dengan pangkalan data pembukaan – menunjukkan kuasa pengkomputeran besar dan teknik khusus boleh membantu mesin mengatasi manusia dalam tugas tertentu. Peristiwa ini menandakan kebangkitan semula AI di media, membangkitkan minat penyelidikan selepas bertahun-tahun suram.

Bukan hanya dalam catur, AI dekad 1990 mencapai kemajuan dalam banyak bidang lain. Dalam permainan, pada 1994 program Chinook menyelesaikan permainan dam sepenuhnya pada tahap juara dunia, memaksa juara dunia mengakui tidak dapat mengalahkan komputer.

Dalam pengenalan suara, sistem komersial seperti Dragon Dictate (1990) mula muncul, dan pada akhir dekad, perisian pengenalan suara digunakan secara meluas pada komputer peribadi. Pengenalan tulisan tangan juga diintegrasikan pada peranti PDA (penolong peribadi digital) dengan ketepatan yang semakin baik.

Aplikasi penglihatan komputer mula digunakan dalam industri, dari pemeriksaan komponen hingga sistem keselamatan. Malah penterjemahan mesin – bidang yang pernah mengecewakan AI pada 1960-an – juga menunjukkan kemajuan dengan sistem SYSTRAN yang menyokong terjemahan automatik pelbagai bahasa untuk Kesatuan Eropah.

Satu lagi arah penting adalah pembelajaran mesin statistik dan rangkaian neural digunakan untuk meneroka data berskala besar. Akhir 1990-an menyaksikan ledakan Internet, membawa jumlah data digital yang besar. Teknik data mining dan algoritma pembelajaran mesin seperti pokok keputusan, rangkaian neural, model Markov tersembunyi digunakan untuk menganalisis data web, mengoptimumkan enjin carian dan mempersonalisasi kandungan.

Istilah “sains data” belum popular, tetapi sebenarnya AI telah menyusup ke dalam sistem perisian untuk meningkatkan prestasi berdasarkan pembelajaran dari data pengguna (contoh: penapis spam email, cadangan produk dalam e-dagang). Kejayaan kecil tetapi praktikal ini membantu AI membina reputasi kembali dalam kalangan perniagaan dan masyarakat.

Boleh dikatakan, dekad 1990 adalah fasa AI “diam-diam” tetapi kukuh memasuki kehidupan. Daripada kenyataan besar tentang kecerdasan seperti manusia, pembangun menumpukan pada menyelesaikan masalah khusus. Hasilnya, AI hadir dalam banyak produk teknologi akhir abad ke-20 yang kadang-kadang tidak disedari pengguna – dari permainan, perisian hingga peranti elektronik. Fasa ini juga menyediakan asas penting tentang data dan algoritma, mempersiapkan AI untuk ledakan pada dekad berikut.

AI pada tahun 1990-an

Dekad 2000: Pembelajaran Mesin dan Era Data Besar

Memasuki abad ke-21, AI berkembang pesat berkat Internet dan era data besar. Tahun 2000-an menyaksikan ledakan komputer peribadi, rangkaian Internet dan peranti sensor, menghasilkan jumlah data yang sangat besar. Pembelajaran mesin – terutama kaedah pembelajaran berpenyeliaan – menjadi alat utama untuk menggali “emas” data ini.

Slogan “data adalah minyak baru” menjadi popular kerana semakin banyak data, algoritma AI semakin tepat. Syarikat teknologi besar mula membina sistem pengumpulan dan pembelajaran dari data pengguna untuk memperbaiki produk: Google dengan enjin carian pintar, Amazon dengan cadangan pembelian berdasarkan tingkah laku, Netflix dengan algoritma cadangan filem. AI menjadi “otak” senyap di belakang platform digital.

Tahun 2006 menandakan peristiwa penting: Fei-Fei Li, profesor di Universiti Stanford, memulakan projek ImageNet – pangkalan data besar dengan lebih 14 juta gambar berlabel terperinci. Diperkenalkan pada 2009, ImageNet segera menjadi set data standard untuk melatih dan menilai algoritma penglihatan komputer, khususnya pengenalan objek dalam gambar.

ImageNet dianggap sebagai “doping” yang mempercepat penyelidikan deep learning kemudian, dengan menyediakan data mencukupi untuk model pembelajaran mendalam yang kompleks. Pertandingan ImageNet Challenge tahunan sejak 2010 menjadi medan penting di mana kumpulan penyelidik berlumba membangunkan algoritma pengenalan gambar terbaik. Dari sini, satu titik perubahan sejarah AI berlaku pada 2012 (lihat bahagian dekad 2010).

Dalam dekad 2000, AI juga menakluk banyak pencapaian aplikasi penting:

  • Tahun 2005, kereta pandu sendiri Stanford (dikenali sebagai “Stanley”) memenangi DARPA Grand Challenge – perlumbaan kereta pandu sendiri di padang pasir sejauh 212 km. Stanley menamatkan perjalanan dalam 6 jam 53 minit, membuka era baru untuk kereta pandu sendiri dan menarik pelaburan besar dari Google, Uber pada tahun-tahun berikut.
  • Penolong maya di telefon bimbit muncul: pada 2008, aplikasi Google Voice Search membolehkan carian suara di iPhone; dan kemuncaknya adalah Apple Siri (diperkenalkan 2011) – penolong maya kawalan suara dalam iPhone. Siri menggunakan teknologi pengenalan suara, pemahaman bahasa semula jadi dan sambungan web untuk menjawab pengguna, menandakan AI mula menjangkau khalayak luas.
  • Tahun 2011, superkomputer IBM Watson mengalahkan dua juara permainan kuiz Jeopardy! di televisyen AS. Watson mampu memahami soalan bahasa Inggeris yang kompleks dan mengakses data besar untuk mencari jawapan, menunjukkan kekuatan AI dalam pemprosesan bahasa semula jadi dan pencarian maklumat. Kemenangan ini membuktikan komputer boleh “memahami” dan bertindak pintar dalam bidang pengetahuan luas.
  • Media sosial dan web: Facebook memperkenalkan ciri pengenalan wajah automatik untuk menandakan gambar (sekitar 2010), menggunakan algoritma pembelajaran mesin pada data gambar pengguna. YouTube dan Google menggunakan AI untuk menapis kandungan dan mencadangkan video. Teknik machine learning beroperasi secara senyap dalam platform, membantu mengoptimumkan pengalaman pengguna walaupun mereka tidak sedar.

Boleh dikatakan, pemangkin utama AI dekad 2000 adalah data dan aplikasi. Algoritma pembelajaran mesin tradisional seperti regresi, SVM, pokok keputusan digunakan secara besar-besaran, memberikan kesan praktikal.

AI yang sebelum ini hanya topik penyelidikan kini beralih dengan pesat ke industri: “AI untuk perniagaan” menjadi topik hangat, dengan banyak syarikat menawarkan penyelesaian AI dalam pengurusan, kewangan, pemasaran dan lain-lain. Pada 2006, istilah “kecerdasan buatan perusahaan” (enterprise AI) muncul, menekankan penggunaan AI untuk meningkatkan keberkesanan perniagaan dan membuat keputusan.

Akhir dekad 2000 juga menyaksikan benih revolusi pembelajaran mendalam. Penyelidikan rangkaian neural berlapis terus berkembang. Pada 2009, kumpulan Andrew Ng di Universiti Stanford mengumumkan penggunaan GPU (pemproses grafik) untuk melatih rangkaian neural 70 kali lebih cepat daripada CPU biasa.

Kekuatan pengkomputeran selari GPU secara tidak sengaja sangat sesuai untuk pengiraan matriks rangkaian neural, membuka jalan bagi latihan model deep learning berskala besar pada dekad 2010. Komponen terakhir – data besar, perkakasan kuat, algoritma canggih – sudah tersedia, hanya menunggu masa untuk meletup menjadi revolusi AI baru.

AI pada tahun 2000-an

Dekad 2010: Revolusi Pembelajaran Mendalam (Deep Learning)

Jika harus memilih satu fasa di mana AI benar-benar “berlepas”, ia adalah dekad 2010. Dengan asas data dan perkakasan dari dekad sebelumnya, kecerdasan buatan memasuki era pembelajaran mendalam (deep learning) – model rangkaian neural berlapis mencapai pencapaian luar biasa, memecahkan semua rekod dalam pelbagai tugasan AI. Impian mesin “belajar seperti otak manusia” sebahagiannya menjadi kenyataan melalui algoritma deep learning.

Titik perubahan sejarah berlaku pada 2012, apabila kumpulan Geoffrey Hinton dan pelajar-pelajarnya (Alex Krizhevsky, Ilya Sutskever) menyertai pertandingan ImageNet Challenge. Model mereka – dikenali sebagai AlexNet – adalah rangkaian neural konvolusi 8 lapis yang dilatih menggunakan GPU. Hasilnya, AlexNet mencapai ketepatan jauh lebih tinggi, mengurangkan kadar kesilapan pengenalan gambar separuh berbanding pasukan kedua.

Kemenangan besar ini mengejutkan komuniti penglihatan komputer dan menandakan permulaan “demam deep learning” dalam AI. Dalam beberapa tahun berikutnya, kebanyakan kaedah pengenalan gambar tradisional digantikan oleh model deep learning.

Kejayaan AlexNet mengesahkan bahawa dengan data mencukupi (ImageNet) dan kuasa pengkomputeran (GPU), rangkaian neural dalam boleh mengatasi teknik AI lain. Hinton dan rakan sekerja segera dijemput Google, dan deep learning menjadi kata kunci utama dalam penyelidikan AI sejak itu.

Deep learning bukan sahaja merevolusikan penglihatan komputer tetapi juga merambah ke pemprosesan suara, bahasa dan banyak bidang lain. Pada 2012, Google Brain (projek Andrew Ng dan Jeff Dean) mencipta kejutan dengan mengumumkan rangkaian neural dalam yang belajar menonton video YouTube dan mengenal pasti konsep “kucing” tanpa label.

Antara 2011–2014, penolong maya seperti Siri, Google Now (2012) dan Microsoft Cortana (2014) dilancarkan, memanfaatkan kemajuan dalam pengenalan suara dan pemahaman bahasa semula jadi. Contohnya, sistem pengenalan suara Microsoft mencapai ketepatan setanding manusia pada 2017, sebahagian besarnya berkat rangkaian neural dalam untuk model audio. Dalam penterjemahan, pada 2016 Google Translate beralih ke seni bina penterjemahan mesin berasaskan rangkaian neural (NMT), meningkatkan kualiti terjemahan berbanding model statistik lama.

Satu lagi peristiwa penting adalah kemenangan AI dalam permainan Go – satu pencapaian yang pernah dianggap jauh. Pada Mac 2016, program AlphaGo dari DeepMind (Google) mengalahkan pemain Go nombor satu dunia Lee Sedol dengan skor 4-1. Go jauh lebih kompleks daripada catur, dengan bilangan kemungkinan langkah yang terlalu banyak untuk brute-force. AlphaGo menggabungkan deep learning dan algoritma Monte Carlo Tree Search, belajar bermain melalui jutaan permainan manusia dan bermain sendiri.

Kemenangan ini disamakan dengan perlawanan Deep Blue-Kasparov 1997, mengesahkan AI kini boleh mengatasi manusia dalam bidang yang memerlukan intuisi dan pengalaman. Selepas AlphaGo, DeepMind membangunkan AlphaGo Zero (2017) yang belajar bermain Go sepenuhnya sendiri dari peraturan, tanpa data manusia, dan mengalahkan versi lama 100-0. Ini menunjukkan potensi pembelajaran penguatan (reinforcement learning) digabungkan dengan deep learning untuk prestasi super.

Pada 2017, satu penemuan penting dalam pemprosesan bahasa muncul: seni bina Transformer. Penyelidik Google menerbitkan model Transformer dalam artikel “Attention Is All You Need”, mencadangkan mekanisme self-attention yang membolehkan model belajar hubungan antara kata dalam ayat tanpa perlu urutan berantai.

Transformer membolehkan latihan model bahasa besar (LLM) menjadi jauh lebih berkesan berbanding seni bina berurutan sebelumnya (RNN/LSTM). Sejak itu, banyak model bahasa berasaskan Transformer muncul: BERT (Google, 2018) untuk pemahaman konteks, dan terutama GPT (Generative Pre-trained Transformer) oleh OpenAI yang diperkenalkan pada 2018.

Model-model ini mencapai hasil luar biasa dalam tugasan bahasa dari klasifikasi, menjawab soalan hingga penjanaan teks. Transformer meletakkan asas perlumbaan model bahasa besar pada dekad 2020.

Akhir dekad 2010 juga menyaksikan kemunculan AI generatif (generative AI) – model AI yang mampu menghasilkan kandungan baru secara automatik. Pada 2014, Ian Goodfellow dan rakan sekerja mencipta model GAN (Generative Adversarial Network), yang menggunakan dua rangkaian neural bertentangan untuk menghasilkan data palsu yang sangat mirip data sebenar.

GAN cepat terkenal dengan kemampuan menghasilkan imej potret manusia palsu yang sangat realistik (deepfake). Seiring itu, model autoencoder varian (VAE) dan pemindahan gaya (style transfer) juga dibangunkan, membolehkan transformasi imej dan video dalam gaya baru.

Pada 2019, OpenAI memperkenalkan GPT-2 – model penjana teks dengan 1.5 bilion parameter yang menarik perhatian kerana mampu menghasilkan teks panjang yang lancar hampir seperti manusia. Jelas sekali, AI kini bukan sahaja mengklasifikasi atau meramalkan, tetapi juga mencipta kandungan dengan cara yang meyakinkan.

AI pada dekad 2010 telah membuat lonjakan besar melebihi jangkaan. Banyak tugasan yang sebelum ini dianggap “mustahil” untuk komputer kini AI mampu melakukannya setara atau melebihi manusia: pengecaman imej, pengenalan suara, penterjemahan, permainan kompleks dan lain-lain.

Lebih penting, AI mula menyusup ke dalam kehidupan harian: dari kamera telefon pintar yang mengenal pasti wajah secara automatik, penolong maya dalam pembesar suara pintar (Alexa, Google Home), hingga cadangan kandungan di media sosial yang dikendalikan AI. Ini benar-benar fasa ledakan AI, yang menyebabkan ramai menyamakan “AI sebagai elektrik baru” – teknologi asas yang mengubah semua industri.

AI pada tahun 2010-an

Dekad 2020: Ledakan AI Generatif dan Trend Baru

Dalam beberapa tahun awal dekad 2020, AI meledak dengan kelajuan belum pernah terjadi, terutamanya kerana kebangkitan AI generatif (Generative AI) dan model bahasa besar (LLM). Sistem ini membolehkan AI berinteraksi secara langsung dengan ratusan juta pengguna, mencipta gelombang aplikasi kreatif serta menimbulkan banyak perbincangan sosial mendalam mengenai impak AI.

Pada Jun 2020, OpenAI memperkenalkan GPT-3 – model bahasa besar dengan 175 bilion parameter, 10 kali ganda lebih besar daripada model terbesar sebelumnya. GPT-3 mengejutkan kerana mampu menulis teks, menjawab soalan, berpuisi, menulis kod hampir seperti manusia, walaupun masih membuat kesilapan fakta. Kekuatan GPT-3 menunjukkan skala model digabungkan dengan jumlah data latihan yang besar boleh menghasilkan kemampuan bahasa yang lancar belum pernah ada. Aplikasi berasaskan GPT-3 muncul dengan cepat, dari penulisan kandungan pemasaran, penolong e-mel hingga sokongan pengaturcaraan.

Pada November 2022, AI benar-benar muncul ke cahaya umum dengan pelancaran ChatGPT – chatbot interaktif dibangunkan oleh OpenAI, berdasarkan model GPT-3.5. Dalam 5 hari, ChatGPT mencapai 1 juta pengguna, dan dalam 2 bulan melepasi 100 juta pengguna, menjadi aplikasi pengguna yang berkembang paling pantas dalam sejarah.

ChatGPT mampu menjawab pelbagai soalan dengan lancar, dari penulisan teks, penyelesaian matematik, nasihat dan lain-lain, mengejutkan pengguna dengan tahap “kepintaran” dan kelenturannya. Populariti ChatGPT menandakan AI pertama kali digunakan secara meluas sebagai alat penciptaan kandungan, sekaligus memulakan perlumbaan AI antara gergasi teknologi.

Awal 2023, Microsoft mengintegrasikan GPT-4 (model seterusnya OpenAI) ke dalam enjin carian Bing, sementara Google melancarkan chatbot Bard menggunakan model LaMDA sendiri. Persaingan ini membantu teknologi AI generatif semakin meluas dan diperbaiki dengan pantas.

Selain teks, AI generatif dalam bidang imej dan audio juga berkembang pesat. Pada 2022, model text-to-image seperti DALL-E 2 (OpenAI), Midjourney dan Stable Diffusion membolehkan pengguna memasukkan deskripsi teks dan menerima imej yang dilukis AI. Kualiti imej yang hidup dan kreatif sangat menakjubkan, membuka era baru untuk penciptaan kandungan digital.

Namun, ini juga menimbulkan cabaran mengenai hak cipta dan etika, kerana AI belajar dari karya seni artis dan menghasilkan produk serupa. Dalam audio, model text-to-speech generasi baru boleh menukar teks menjadi suara yang sangat mirip manusia sebenar, malah meniru suara selebriti, menimbulkan kebimbangan tentang deepfake suara.

Pada 2023, kali pertama kes undang-undang mengenai hak cipta data latihan AI muncul – contohnya syarikat Getty Images menyaman Stability AI (pembangun Stable Diffusion) kerana menggunakan jutaan gambar berhak cipta tanpa izin untuk melatih model. Ini menunjukkan sisi gelap ledakan AI: isu undang-undang, etika dan sosial mula timbul, memerlukan perhatian serius.

Di tengah demam AI, 2023 menyaksikan komuniti pakar menyuarakan kebimbangan risiko AI kuat. Lebih 1,000 tokoh teknologi (termasuk Elon Musk, Steve Wozniak, penyelidik AI dan lain-lain) menandatangani surat terbuka menyeru penangguhan 6 bulan latihan model AI lebih besar daripada GPT-4, kerana bimbang perkembangan terlalu cepat di luar kawalan.

Pada tahun yang sama, tokoh perintis seperti Geoffrey Hinton (“bapa” deep learning) juga memberi amaran tentang risiko AI melepasi kawalan manusia. Suruhanjaya Eropah dengan pantas melengkapkan Akta AI (EU AI Act) – peraturan komprehensif pertama dunia mengenai kecerdasan buatan, dijangka berkuatkuasa 2024. Undang-undang ini melarang sistem AI yang dianggap “risiko tidak boleh diterima” (seperti pengawasan besar-besaran, penilaian sosial) dan menuntut ketelusan untuk model AI umum.

Di AS, beberapa negeri juga mengeluarkan undang-undang mengehadkan penggunaan AI dalam bidang sensitif (pengambilan pekerja, kewangan, kempen pilihan raya dan lain-lain). Jelas bahawa dunia sedang mempercepat membentuk rangka kerja undang-undang dan etika untuk AI, satu keperluan penting apabila teknologi sudah memberi impak luas.

Secara keseluruhan, dekad 2020 menyaksikan ledakan AI dari segi teknologi dan penerimaan. Alat AI generasi baru seperti ChatGPT, DALL-E, Midjourney dan lain-lain telah menjadi biasa, membantu berjuta-juta orang berkarya dan bekerja dengan lebih berkesan dalam cara yang belum pernah ada.

Sementara itu, perlumbaan pelaburan dalam AI berlangsung rancak: dijangka perbelanjaan AI generatif oleh perusahaan akan melebihi 1 bilion USD dalam beberapa tahun akan datang. AI juga semakin menyusup ke pelbagai bidang: perubatan (sokongan diagnosis imej, pencarian ubat baru), kewangan (analisis risiko, pengesanan penipuan), pendidikan (penolong pengajaran maya, kandungan pembelajaran peribadi), pengangkutan (kereta pandu sendiri tahap tinggi), pertahanan (keputusan taktikal) dan lain-lain.

Boleh dikatakan, AI kini seperti elektrik atau Internet – infrastruktur teknologi yang semua perusahaan dan kerajaan mahu manfaatkan. Ramai pakar optimis bahawa AI akan terus membawa lonjakan produktiviti dan kualiti hidup jika dibangunkan dan diurus dengan betul.

AI pada tahun 2020-an


Dari tahun 1950 hingga kini, sejarah perkembangan AI telah melalui perjalanan yang menakjubkan – penuh dengan ambisi, kekecewaan, dan kemudian kebangkitan. Dari seminar kecil Dartmouth 1956 yang meletakkan asas bidang ini, AI telah dua kali mengalami “musim sejuk” kerana harapan berlebihan, tetapi setiap kali bangkit dengan kuat berkat penemuan saintifik dan teknologi. Terutamanya dalam 15 tahun terakhir, AI telah membuat kemajuan luar biasa, benar-benar keluar dari makmal ke dunia nyata dan memberi impak luas.

Kini, AI hadir dalam hampir semua bidang dan semakin pintar serta serbaguna. Namun, matlamat AI kuat (kecerdasan buatan umum) – mesin dengan kecerdasan fleksibel seperti manusia – masih jauh di hadapan.

Model AI hari ini walaupun mengagumkan, masih terhad dalam skop tugasan yang dilatih, kadang-kadang membuat kesilapan bodoh (seperti ChatGPT boleh “mengilusi” maklumat salah dengan keyakinan tinggi). Cabaran keselamatan dan etika juga menuntut perhatian segera: bagaimana memastikan AI berkembang dikawal, telus dan demi manfaat bersama manusia.

Perjalanan seterusnya AI menjanjikan keadaan yang sangat menarik. Dengan kemajuan kini, kita boleh melihat AI menyusup lebih dalam lagi ke dalam kehidupan: dari doktor AI yang membantu penjagaan kesihatan, peguam AI yang merujuk undang-undang, hingga rakan AI yang menemani pembelajaran dan perbualan.

Teknologi seperti pengkomputeran neuromorfik sedang dikaji untuk meniru struktur otak manusia, berpotensi menghasilkan generasi AI baru yang lebih cekap dan hampir dengan kecerdasan semula jadi. Walaupun prospek AI melebihi kecerdasan manusia masih kontroversi, jelas AI akan terus berkembang dan membentuk masa depan manusia dengan cara yang mendalam.

Melihat kembali sejarah penubuhan dan perkembangan AI, kita melihat kisah ketekunan dan kreativiti tanpa henti manusia. Dari komputer primitif yang hanya boleh mengira, manusia telah mengajar mesin bermain catur, memandu, mengenal dunia dan bahkan mencipta seni. Kecerdasan buatan telah, sedang dan akan terus menjadi bukti kemampuan kita melampaui batasan.

Yang penting adalah kita belajar dari sejarah – menetapkan jangkaan yang tepat, membangunkan AI secara bertanggungjawab – untuk memastikan AI membawa manfaat maksimum kepada manusia dalam perjalanan seterusnya.