Kecerdasan buatan (AI) saat ini telah menjadi bagian yang akrab dalam kehidupan modern, hadir di berbagai bidang mulai dari bisnis hingga kesehatan. Namun, sedikit yang menyangka bahwa sejarah perkembangan AI telah dimulai sejak pertengahan abad ke-20 dan melewati banyak pasang surut sebelum mencapai prestasi luar biasa seperti sekarang.

Artikel ini INVIAI akan memberikan pandangan mendetail tentang sejarah pembentukan dan perkembangan AI, mulai dari gagasan awal yang sederhana, melewati fase “musim dingin AI” yang penuh tantangan, hingga revolusi pembelajaran mendalam dan gelombang ledakan AI generatif pada dekade 2020-an.

Dekade 1950: Awal mula kecerdasan buatan

Tahun 1950-an dianggap sebagai titik awal resmi bidang AI. Pada tahun 1950, matematikawan Alan Turing menerbitkan makalah “Computing Machinery and Intelligence”, di mana ia mengusulkan sebuah tes terkenal untuk menilai kemampuan berpikir mesin – yang kemudian dikenal sebagai tes Turing. Ini dianggap sebagai tonggak yang membuka gagasan bahwa komputer dapat “berpikir” seperti manusia, meletakkan dasar teori AI.

Pada tahun 1956, istilah “Artificial Intelligence” (kecerdasan buatan) secara resmi diperkenalkan. Pada musim panas tahun itu, ilmuwan komputer John McCarthy (Universitas Dartmouth) bersama rekan-rekannya seperti Marvin Minsky, Nathaniel Rochester (IBM), dan Claude Shannon mengadakan konferensi bersejarah di Universitas Dartmouth.

McCarthy mengusulkan istilah “kecerdasan buatan” (AI) untuk konferensi ini, dan acara Dartmouth 1956 sering dianggap sebagai kelahiran bidang AI. Di sini, para ilmuwan berani menyatakan “semua aspek pembelajaran atau kecerdasan dapat dimodelkan dengan mesin”, menetapkan tujuan ambisius untuk bidang baru ini.

Akhir tahun 1950-an menyaksikan banyak prestasi awal AI. Pada tahun 1951, program AI awal telah dibuat untuk dijalankan di komputer Ferranti Mark I – yang paling menonjol adalah program bermain dam (checkers) oleh Christopher Strachey dan program catur oleh Dietrich Prinz, menandai pertama kalinya komputer mampu bermain permainan intelektual.

Pada tahun 1955, Arthur Samuel di IBM mengembangkan program bermain dam yang mampu belajar dari pengalaman, menjadi sistem machine learning (pembelajaran mesin) awal pertama. Pada periode ini juga, Allen Newell, Herbert Simon, dan timnya menulis program Logic Theorist (1956) – yang dapat secara otomatis membuktikan teorema matematika, menunjukkan bahwa mesin dapat melakukan penalaran logis.

Selain algoritma, alat dan bahasa pemrograman khusus untuk AI juga muncul pada tahun 1950-an. Pada tahun 1958, John McCarthy menciptakan bahasa Lisp – bahasa pemrograman yang dirancang khusus untuk AI, yang dengan cepat menjadi populer di komunitas pengembang AI. Pada tahun yang sama, psikolog Frank Rosenblatt memperkenalkan Perceptron – model jaringan saraf tiruan pertama yang mampu belajar dari data. Perceptron dianggap sebagai fondasi awal bagi jaringan neural modern.

Pada tahun 1959, Arthur Samuel pertama kali menggunakan istilah “machine learning” (pembelajaran mesin) dalam sebuah makalah penting yang menggambarkan bagaimana komputer dapat diprogram untuk belajar dan meningkatkan kemampuan bermain catur melebihi programmernya. Perkembangan ini menunjukkan optimisme besar: para pelopor percaya bahwa dalam beberapa dekade, mesin dapat mencapai kecerdasan setara manusia.

Dekade 1950 - Awal mula kecerdasan buatan

Dekade 1960: Langkah-langkah awal

Memasuki dekade 1960, AI terus berkembang dengan banyak proyek dan penemuan penting. Laboratorium AI didirikan di berbagai universitas ternama (MIT, Stanford, Carnegie Mellon...), menarik perhatian dan pendanaan riset. Komputer saat itu semakin kuat, memungkinkan pengujian ide AI yang lebih kompleks dibandingkan dekade sebelumnya.

Salah satu pencapaian menonjol adalah lahirnya program chatbot pertama. Pada tahun 1966, Joseph Weizenbaum di MIT menciptakan ELIZA, program yang meniru percakapan dengan pengguna ala seorang psikolog. ELIZA diprogram sangat sederhana (berbasis pengenalan kata kunci dan respons pola), namun mengejutkan banyak orang yang mengira ELIZA benar-benar “memahami” dan memiliki emosi. Keberhasilan ELIZA membuka jalan bagi chatbot modern dan menimbulkan pertanyaan tentang kecenderungan manusia memberi emosi pada mesin.

Selain itu, robot cerdas pertama juga muncul. Dari tahun 1966–1972, Stanford Research Institute (SRI) mengembangkan Shakeyrobot bergerak pertama yang mampu sadar diri dan merencanakan tindakan alih-alih hanya menjalankan perintah sederhana. Robot Shakey dilengkapi sensor dan kamera untuk bergerak mandiri di lingkungan dan dapat menganalisis tugas menjadi langkah dasar seperti mencari jalan, mendorong penghalang, menaiki tanjakan, dll. Ini adalah kali pertama sistem mengintegrasikan visi komputer, pemrosesan bahasa alami, dan perencanaan dalam robot, meletakkan dasar bagi bidang robotika AI selanjutnya.

American Association of Artificial Intelligence (AAAI) juga didirikan pada periode ini (berawal dari konferensi IJCAI 1969 dan organisasi AAAI sejak 1980) untuk mengumpulkan para peneliti AI, menunjukkan komunitas AI yang semakin berkembang.

Selain itu, dekade 1960 juga mencatat perkembangan sistem pakar dan algoritma dasar. Pada tahun 1965, Edward Feigenbaum bersama rekan-rekannya mengembangkan DENDRAL – dianggap sebagai sistem pakar pertama di dunia. DENDRAL dirancang untuk membantu ahli kimia menganalisis struktur molekul dari data eksperimen dengan memodelkan pengetahuan dan pemikiran ahli kimia. Keberhasilan DENDRAL menunjukkan komputer dapat membantu menyelesaikan masalah khusus yang kompleks, meletakkan dasar bagi sistem pakar yang berkembang pesat pada dekade 1980-an.

Selain itu, bahasa pemrograman Prolog (khusus untuk AI logika) dikembangkan pada tahun 1972 di Universitas Marseille, membuka pendekatan AI berbasis logika dan aturan relasional. Tonggak penting lain adalah pada tahun 1969, Marvin Minsky dan Seymour Papert menerbitkan buku “Perceptrons”. Buku ini menunjukkan batasan matematis model perceptron satu lapis (tidak dapat menyelesaikan masalah XOR sederhana), yang menyebabkan bidang jaringan saraf diragukan secara serius.

Banyak sponsor kehilangan kepercayaan pada kemampuan pembelajaran jaringan saraf, dan penelitian jaringan saraf mulai menurun pada akhir 1960-an. Ini adalah tanda pertama dari “pendinginan” antusiasme AI setelah lebih dari satu dekade optimisme.

AI pada dekade 1960

Dekade 1970: Tantangan dan “musim dingin AI” pertama

Memasuki dekade 1970, bidang AI menghadapi tantangan realitas: Banyak harapan besar dari dekade sebelumnya belum tercapai karena keterbatasan daya komputasi, data, dan pemahaman ilmiah. Akibatnya, kepercayaan dan pendanaan untuk AI mulai menurun tajam pada pertengahan 1970-an – periode ini kemudian dikenal sebagai “musim dingin AI” pertama.

Pada tahun 1973, Sir James Lighthill menambah bahan bakar dengan menerbitkan laporan berjudul “Artificial Intelligence: A General Survey” yang sangat kritis terhadap kemajuan riset AI. Laporan Lighthill menyimpulkan bahwa para peneliti AI “menjanjikan terlalu banyak tapi menghasilkan sangat sedikit”, terutama mengkritik ketidakmampuan komputer memahami bahasa dan visi seperti yang diharapkan.

Laporan ini menyebabkan Pemerintah Inggris memangkas hampir seluruh anggaran AI. Di Amerika Serikat, lembaga pendanaan seperti DARPA juga mengalihkan investasi ke proyek yang lebih praktis. Akibatnya, dari pertengahan 1970-an hingga awal 1980-an, bidang AI hampir beku, sedikit terobosan dan kekurangan dana serius. Inilah musim dingin AI – istilah yang diperkenalkan pada 1984 untuk menggambarkan periode “beku” panjang riset AI.

Meski sulit, dekade 1970 masih memiliki beberapa cahaya terang dalam riset AI. Sistem pakar terus dikembangkan di lingkungan akademik, contohnya MYCIN (1974) – sistem pakar konsultasi medis yang dikembangkan Ted Shortliffe di Stanford, membantu diagnosis infeksi darah. MYCIN menggunakan aturan inferensi untuk memberikan rekomendasi pengobatan dengan akurasi tinggi, membuktikan nilai praktis sistem pakar dalam domain terbatas.

Selain itu, bahasa Prolog (diluncurkan 1972) mulai digunakan dalam pemrosesan bahasa dan penyelesaian masalah logika, menjadi alat penting untuk AI berbasis logika. Dalam bidang robotika, pada tahun 1979 tim riset Stanford berhasil mengembangkan Stanford Cart – kendaraan robot pertama yang dapat bergerak melewati ruangan penuh rintangan tanpa kendali jarak jauh manusia. Prestasi kecil ini meletakkan dasar bagi riset mobil otonom selanjutnya.

Secara keseluruhan, akhir dekade 1970, riset AI memasuki masa tenang. Banyak ilmuwan AI harus beralih ke bidang terkait seperti pembelajaran mesin statistik, robotika, dan visi komputer untuk melanjutkan pekerjaan mereka.

AI tidak lagi menjadi “bintang terang” seperti dekade sebelumnya, melainkan menjadi bidang sempit dengan sedikit kemajuan signifikan. Periode ini mengingatkan para peneliti bahwa kecerdasan buatan jauh lebih kompleks dari perkiraan, menuntut pendekatan baru yang lebih mendasar daripada sekadar meniru penalaran berbasis aturan.

AI pada dekade 1970

Dekade 1980: Sistem pakar – Kebangkitan dan kemunduran

Memasuki awal dekade 1980, AI kembali memasuki fase kebangkitan – kadang disebut “renaissance AI”. Dorongan ini datang dari keberhasilan komersial sistem pakar dan minat investasi yang kembali dari pemerintah dan perusahaan. Komputer menjadi lebih kuat, dan komunitas percaya bahwa ide AI dalam lingkup terbatas dapat diwujudkan secara nyata.

Salah satu pendorong utama adalah sistem pakar komersial. Pada tahun 1981, perusahaan Digital Equipment Corporation meluncurkan XCON (Expert Configuration) – sistem pakar yang membantu konfigurasi sistem komputer, menghemat perusahaan puluhan juta dolar. Keberhasilan XCON mendorong gelombang pengembangan sistem pakar dalam bisnis untuk mendukung pengambilan keputusan. Banyak perusahaan teknologi berinvestasi menciptakan “shell” sistem pakar (expert system shell) agar bisnis dapat menyesuaikan sistem mereka sendiri.

Bahasa Lisp juga keluar dari laboratorium dengan hadirnya mesin Lisp (Lisp machine) – perangkat keras khusus yang dioptimalkan untuk menjalankan program AI. Awal 1980-an, sejumlah perusahaan startup mesin Lisp berdiri (Symbolics, Lisp Machines Inc.), menciptakan demam investasi dan dikenal sebagai “era mesin Lisp” untuk AI.

Pemerintah besar juga mengucurkan dana besar untuk AI pada masa ini. Tahun 1982, Jepang memulai Proyek Komputer Generasi Kelima dengan anggaran 850 juta USD, bertujuan mengembangkan komputer cerdas menggunakan logika dan Prolog. Demikian pula, AS (DARPA) meningkatkan dukungan riset AI dalam persaingan teknologi dengan Jepang. Proyek-proyek ini fokus pada sistem pakar, pemrosesan bahasa alami, dan basis pengetahuan, dengan harapan menciptakan komputer cerdas unggul.

Di tengah gelombang optimisme baru, bidang jaringan saraf tiruan juga mulai bangkit kembali secara diam-diam. Tahun 1986, peneliti Geoffrey Hinton dan rekan menerbitkan algoritma Backpropagation (propagasi balik) – metode efektif melatih jaringan saraf berlapis banyak, mengatasi keterbatasan yang disebutkan dalam buku Perceptrons (1969).

Sebenarnya prinsip propagasi balik sudah dirancang sejak 1970, tapi baru pertengahan 1980-an dimanfaatkan secara optimal berkat peningkatan daya komputasi. Algoritma backpropagation dengan cepat memicu gelombang riset jaringan saraf kedua. Saat itu, keyakinan bahwa jaringan saraf dalam dapat mempelajari model kompleks mulai tumbuh, menandai awal pembelajaran mendalam (deep learning) di masa depan.

Peneliti muda seperti Yann LeCun (Prancis), Yoshua Bengio (Kanada) juga bergabung dalam gerakan jaringan saraf ini, mengembangkan model pengenalan tulisan tangan yang sukses pada akhir dekade.

Namun, kejayaan kedua AI tidak berlangsung lama. Akhir 1980-an, bidang AI kembali mengalami krisis karena hasil yang tidak memenuhi harapan. Sistem pakar meski berguna dalam aplikasi terbatas, menunjukkan kelemahan: mereka kaku, sulit dikembangkan, dan memerlukan pembaruan pengetahuan manual terus-menerus.

Banyak proyek sistem pakar besar gagal, pasar mesin Lisp juga runtuh karena persaingan komputer pribadi yang lebih murah. Tahun 1987, industri mesin Lisp hampir bangkrut total. Investasi AI kedua kali dipangkas tajam pada akhir 1980-an, memicu “musim dingin AI” kedua. Istilah “AI winter” yang diperkenalkan tahun 1984 pun terbukti saat banyak perusahaan AI tutup pada 1987–1988. Sekali lagi, bidang AI memasuki siklus kemunduran, memaksa peneliti menyesuaikan ekspektasi dan strategi.

Singkatnya, dekade 1980 menandai siklus ledakan dan kemunduran AI. Sistem pakar membantu AI masuk ke dunia industri untuk pertama kali, tapi juga menunjukkan batas pendekatan berbasis aturan tetap. Meski demikian, periode ini menghasilkan banyak ide dan alat berharga: dari algoritma jaringan saraf hingga basis pengetahuan pertama. Pelajaran berharga tentang menghindari ekspektasi berlebihan juga diambil, menjadi dasar pendekatan lebih hati-hati di dekade berikutnya.

AI pada tahun 1980-an

Dekade 1990: AI kembali ke dunia nyata

Setelah musim dingin AI akhir 1980-an, kepercayaan terhadap AI mulai pulih pada dekade 1990-an berkat serangkaian kemajuan praktis. Alih-alih fokus pada AI kuat (kecerdasan buatan umum) yang ambisius, para peneliti mengarahkan perhatian pada AI lemah – yaitu penerapan teknik AI pada masalah spesifik yang mulai menunjukkan hasil mengesankan. Banyak bidang turunan AI dari periode sebelumnya (seperti pengenalan suara, visi komputer, algoritma pencarian, sistem basis pengetahuan...) berkembang pesat secara mandiri dan diaplikasikan luas.

Tonggak penting yang membuka kesuksesan praktis adalah pada Mei 1997, komputer Deep Blue milik IBM mengalahkan juara catur dunia Garry Kasparov dalam pertandingan resmi. Ini adalah pertama kalinya sistem AI mengalahkan juara dunia dalam permainan intelektual kompleks, mengejutkan publik.

Kemenangan Deep Blue – berdasarkan algoritma pencarian brute-force dikombinasikan dengan basis data pembukaan – menunjukkan kekuatan komputasi besar dan teknik khusus yang memungkinkan mesin mengungguli manusia dalam tugas tertentu. Peristiwa ini menandai kembalinya AI ke sorotan media, membangkitkan minat riset setelah bertahun-tahun lesu.

Tidak hanya di catur, AI dekade 1990 menunjukkan kemajuan di banyak bidang lain. Dalam permainan, pada 1994 program Chinook menyelesaikan permainan dam (draughts) secara sempurna, membuat juara dunia mengakui ketidakmampuan mengalahkan komputer.

Dalam pengenalan suara, sistem komersial seperti Dragon Dictate (1990) mulai muncul, dan akhir dekade, perangkat lunak pengenalan suara digunakan luas di komputer pribadi. Pengenalan tulisan tangan juga diintegrasikan ke perangkat PDA (asisten digital pribadi) dengan akurasi yang terus meningkat.

Aplikasi visi komputer mulai diterapkan di industri, dari pemeriksaan komponen hingga sistem keamanan. Bahkan penerjemahan mesin – yang sempat membuat AI frustrasi di 1960-an – juga mengalami kemajuan signifikan dengan sistem SYSTRAN yang mendukung terjemahan otomatis multi-bahasa untuk Uni Eropa.

Arah penting lain adalah pembelajaran mesin statistik dan jaringan saraf yang diaplikasikan untuk mengolah data skala besar. Akhir 1990-an menyaksikan ledakan Internet, menghasilkan data digital yang sangat besar. Teknik penambangan data (data mining) dan algoritma pembelajaran mesin seperti pohon keputusan, jaringan saraf, model Markov tersembunyi, dll., digunakan untuk menganalisis data web, mengoptimalkan mesin pencari, dan personalisasi konten.

Istilah “data science” belum populer, tapi faktanya AI telah menyusup ke dalam sistem perangkat lunak untuk meningkatkan performa berdasarkan pembelajaran dari data pengguna (misalnya: filter spam email, rekomendasi produk e-commerce). Keberhasilan kecil tapi nyata ini membantu AI membangun reputasi kembali di mata bisnis dan masyarakat.

Bisa dikatakan, dekade 1990 adalah masa AI “diam-diam” namun mantap memasuki kehidupan. Alih-alih klaim besar tentang kecerdasan seperti manusia, para pengembang fokus menyelesaikan masalah khusus. Hasilnya, AI hadir dalam banyak produk teknologi akhir abad ke-20 yang kadang tidak disadari pengguna – dari game, perangkat lunak hingga perangkat elektronik. Periode ini juga mempersiapkan fondasi penting tentang data dan algoritma, menjadikan AI siap meledak saat waktunya tiba di dekade berikutnya.

AI pada dekade 1990

Dekade 2000: Pembelajaran mesin dan era data besar

Memasuki abad ke-21, AI bergerak maju pesat berkat Internet dan era data besar. Tahun 2000-an menyaksikan ledakan komputer pribadi, jaringan Internet, dan perangkat sensor, menghasilkan volume data yang sangat besar. Pembelajaran mesin (machine learning) – terutama metode pembelajaran terawasi – menjadi alat utama untuk menggali “tambang emas” data ini.

Slogan “data is the new oil” (data adalah minyak baru) menjadi populer, karena semakin banyak data, algoritma AI semakin akurat. Perusahaan teknologi besar mulai membangun sistem pengumpulan dan pembelajaran dari data pengguna untuk meningkatkan produk: Google dengan mesin pencari yang lebih cerdas, Amazon dengan rekomendasi belanja berdasarkan perilaku, Netflix dengan algoritma rekomendasi film. AI perlahan menjadi “otak” tersembunyi di balik platform digital.

Tahun 2006 menandai peristiwa penting: Fei-Fei Li, profesor di Universitas Stanford, memulai proyek ImageNet – basis data besar berisi lebih dari 14 juta gambar berlabel rinci. Diperkenalkan pada 2009, ImageNet segera menjadi dataset standar untuk melatih dan mengevaluasi algoritma visi komputer, khususnya pengenalan objek dalam gambar.

ImageNet diibaratkan sebagai “doping” yang mendorong riset deep learning selanjutnya, dengan menyediakan data cukup untuk model pembelajaran mendalam yang kompleks. Kompetisi ImageNet Challenge tahunan sejak 2010 menjadi arena penting bagi tim riset menguji algoritma pengenalan gambar terbaik. Dari arena inilah, sebuah tonggak sejarah AI terjadi pada 2012 (lihat bagian dekade 2010).

Pada dekade 2000, AI juga menaklukkan banyak tonggak aplikasi penting:

  • Tahun 2005, mobil otonom Stanford (dijuluki “Stanley”) memenangkan DARPA Grand Challenge – lomba mobil otonom di gurun sepanjang 212 km. Stanley menyelesaikan jarak dalam 6 jam 53 menit, membuka era baru untuk mobil otonom dan menarik investasi besar dari Google, Uber di tahun-tahun berikutnya.
  • Asisten virtual di ponsel muncul: tahun 2008, aplikasi Google Voice Search memungkinkan pencarian suara di iPhone; puncaknya adalah Apple Siri (diluncurkan 2011) – asisten suara terintegrasi di iPhone. Siri menggunakan teknologi pengenalan suara, pemahaman bahasa alami, dan koneksi layanan web untuk menjawab pengguna, menandai AI pertama kali menjangkau publik secara luas.
  • Tahun 2011, superkomputer IBM Watson mengalahkan dua juara permainan kuis Jeopardy! di televisi AS. Watson mampu memahami pertanyaan bahasa Inggris kompleks dan mengakses data besar untuk menemukan jawaban, menunjukkan kekuatan AI dalam pemrosesan bahasa alami dan pencarian informasi. Kemenangan ini membuktikan komputer dapat “memahami” dan merespons cerdas dalam domain pengetahuan luas.
  • Media sosial dan web: Facebook memperkenalkan fitur pengenalan wajah otomatis untuk penandaan foto (sekitar 2010), menggunakan algoritma pembelajaran mesin pada data foto pengguna. YouTube dan Google menggunakan AI untuk menyaring konten dan merekomendasikan video. Teknik machine learning bekerja diam-diam di platform, membantu mengoptimalkan pengalaman pengguna yang sering tidak disadari.

Bisa dikatakan, motivasi utama AI dekade 2000 adalah data dan aplikasi. Algoritma pembelajaran mesin tradisional seperti regresi, SVM, pohon keputusan diterapkan dalam skala besar, memberikan hasil nyata.

AI yang sebelumnya hanya topik riset kini bergeser kuat ke industri: “AI untuk bisnis” menjadi tema hangat, dengan banyak perusahaan menawarkan solusi AI untuk manajemen, keuangan, pemasaran, dll. Tahun 2006, istilah “enterprise AI” muncul, menekankan penerapan AI untuk meningkatkan efisiensi bisnis dan pengambilan keputusan.

Akhir dekade 2000 juga menyaksikan benih revolusi pembelajaran mendalam. Penelitian tentang jaringan saraf berlapis banyak terus berkembang. Tahun 2009, tim Andrew Ng di Stanford mengumumkan penggunaan GPU (unit pemrosesan grafis) untuk melatih jaringan saraf 70 kali lebih cepat dibanding CPU biasa.

Kekuatan komputasi paralel GPU sangat cocok untuk perhitungan matriks jaringan saraf, membuka jalan bagi pelatihan model deep learning besar di dekade 2010. Komponen terakhir – data besar, perangkat keras kuat, algoritma canggih – sudah siap, tinggal menunggu waktu untuk meledak menjadi revolusi AI baru.

AI pada dekade 2000

Dekade 2010: Revolusi pembelajaran mendalam (Deep Learning)

Jika harus memilih periode di mana AI benar-benar “terbang”, maka itu adalah dekade 2010. Dengan fondasi data dan perangkat keras dari dekade sebelumnya, kecerdasan buatan memasuki era pembelajaran mendalam (deep learning) – model jaringan saraf berlapis banyak mencapai prestasi luar biasa, memecahkan semua rekor dalam berbagai tugas AI. Impian mesin “belajar seperti otak manusia” mulai menjadi kenyataan melalui algoritma deep learning.

Tonggak sejarah terjadi pada 2012, ketika tim Geoffrey Hinton dan muridnya (Alex Krizhevsky, Ilya Sutskever) mengikuti kompetisi ImageNet Challenge. Model mereka – dikenal sebagai AlexNet – adalah jaringan saraf konvolusional 8 lapis yang dilatih menggunakan GPU. Hasilnya, AlexNet mencapai akurasi luar biasa, mengurangi tingkat kesalahan pengenalan gambar hingga setengah dibandingkan tim peringkat kedua.

Kemenangan telak ini mengejutkan komunitas visi komputer dan menandai awal “demam deep learning” dalam AI. Dalam beberapa tahun berikutnya, sebagian besar metode pengenalan gambar tradisional digantikan oleh model deep learning.

Keberhasilan AlexNet menegaskan bahwa dengan data cukup (ImageNet) dan komputasi (GPU), jaringan saraf dalam dapat melampaui teknik AI lain. Hinton dan timnya segera direkrut Google, dan deep learning menjadi kata kunci terpanas dalam riset AI sejak saat itu.

Deep learning tidak hanya merevolusi visi komputer tetapi juga merambah ke pemrosesan suara, bahasa, dan banyak bidang lain. Tahun 2012, Google Brain (proyek Andrew Ng dan Jeff Dean) mencuri perhatian dengan jaringan saraf dalam yang belajar menonton video YouTube dan mengenali konsep “kucing” tanpa label sebelumnya.

Antara 2011–2014, asisten virtual seperti Siri, Google Now (2012), dan Microsoft Cortana (2014) diluncurkan, memanfaatkan kemajuan dalam pengenalan suara dan pemahaman bahasa alami. Misalnya, sistem pengenalan suara Microsoft mencapai akurasi setara manusia pada 2017, sebagian besar berkat jaringan saraf dalam untuk pemodelan suara. Dalam penerjemahan, pada 2016 Google Translate beralih ke arsitektur penerjemahan mesin neural (NMT), meningkatkan kualitas terjemahan secara signifikan dibanding model statistik sebelumnya.

Peristiwa penting lain adalah kemenangan AI dalam permainan Go – tonggak yang dulu dianggap sangat jauh. Maret 2016, program AlphaGo dari DeepMind (Google) mengalahkan pemain Go nomor satu dunia Lee Sedol dengan skor 4-1. Go jauh lebih kompleks daripada catur, dengan kemungkinan langkah yang sangat banyak sehingga tidak bisa brute-force. AlphaGo menggabungkan deep learning dan algoritma Monte Carlo Tree Search, belajar bermain dari jutaan pertandingan manusia dan bermain sendiri.

Kemenangan ini disamakan dengan pertandingan Deep Blue-Kasparov 1997, menegaskan bahwa AI dapat melampaui manusia dalam bidang yang membutuhkan intuisi dan pengalaman. Setelah AlphaGo, DeepMind mengembangkan AlphaGo Zero (2017) yang sepenuhnya belajar sendiri dari aturan, tanpa data manusia, dan tetap mengalahkan versi lama 100-0. Ini menunjukkan potensi pembelajaran penguatan (reinforcement learning) yang dikombinasikan dengan deep learning untuk mencapai performa superhuman.

Pada 2017, penemuan penting dalam pemrosesan bahasa muncul: arsitektur Transformer. Peneliti Google mempublikasikan model Transformer dalam makalah “Attention Is All You Need”, yang mengusulkan mekanisme self-attention untuk memodelkan hubungan antar kata dalam kalimat tanpa perlu urutan berantai.

Transformer memungkinkan pelatihan model bahasa besar (LLM) jauh lebih efisien dibanding arsitektur berurutan sebelumnya (RNN/LSTM). Sejak itu, banyak model bahasa berbasis Transformer lahir: BERT (Google, 2018) untuk memahami konteks, dan khususnya GPT (Generative Pre-trained Transformer) dari OpenAI yang pertama kali diperkenalkan pada 2018.

Model-model ini mencapai hasil luar biasa dalam tugas bahasa mulai dari klasifikasi, menjawab pertanyaan hingga menghasilkan teks. Transformer meletakkan dasar perlombaan model bahasa besar di dekade 2020-an.

Akhir dekade 2010 juga menyaksikan kemunculan AI generatif (generative AI) – model AI yang mampu menciptakan konten baru secara mandiri. Tahun 2014, Ian Goodfellow dan rekan menciptakan model GAN (Generative Adversarial Network), yang terdiri dari dua jaringan saraf yang saling berkompetisi untuk menghasilkan data palsu yang sangat mirip data asli.

GAN cepat terkenal karena kemampuan membuat gambar wajah palsu yang sangat realistis (deepfake). Bersamaan itu, model autoencoder varian (VAE) dan transfer gaya (style transfer) juga dikembangkan, memungkinkan transformasi gambar dan video dengan gaya baru.

Pada 2019, OpenAI memperkenalkan GPT-2 – model teks dengan 1,5 miliar parameter yang menarik perhatian karena mampu menghasilkan paragraf panjang yang lancar dan mirip manusia. Jelas, AI kini tidak hanya mengklasifikasi atau memprediksi, tapi juga mencipta konten secara meyakinkan.

AI dekade 2010 mencatat kemajuan pesat yang melampaui ekspektasi. Banyak tugas yang sebelumnya dianggap “mustahil” bagi komputer kini dapat dilakukan setara atau lebih baik dari manusia: pengenalan gambar, pengenalan suara, penerjemahan, bermain permainan kompleks...

Lebih penting lagi, AI mulai meresap ke kehidupan sehari-hari: dari kamera smartphone yang otomatis mengenali wajah, asisten suara di speaker pintar (Alexa, Google Home), hingga rekomendasi konten di media sosial yang semuanya dikelola AI. Ini benar-benar periode ledakan AI, yang membuat banyak orang menyebut “AI adalah listrik baru” – teknologi dasar yang mengubah semua profesi.

AI pada dekade 2010

Dekade 2020: Ledakan AI generatif dan tren baru

Hanya dalam beberapa tahun awal dekade 2020, AI meledak dengan kecepatan yang belum pernah terjadi sebelumnya, terutama berkat kebangkitan AI generatif (Generative AI) dan model bahasa besar (LLM). Sistem-sistem ini memungkinkan AI langsung menjangkau ratusan juta pengguna, menciptakan gelombang aplikasi kreatif sekaligus memicu diskusi sosial luas tentang dampak AI.

Juni 2020, OpenAI memperkenalkan GPT-3 – model bahasa raksasa dengan 175 miliar parameter, sepuluh kali lebih besar dari model terbesar sebelumnya. GPT-3 mengejutkan karena mampu menulis paragraf, menjawab pertanyaan, membuat puisi, menulis kode pemrograman... hampir seperti manusia, meski masih kadang melakukan kesalahan faktual. Kekuatan GPT-3 menunjukkan skala model yang dikombinasikan dengan jumlah data pelatihan besar dapat menghasilkan kemampuan bahasa yang sangat lancar. Aplikasi berbasis GPT-3 cepat bermunculan, dari penulisan konten pemasaran, asisten email hingga dukungan pemrograman.

Pada November 2022, AI benar-benar muncul ke publik dengan peluncuran ChatGPT – chatbot interaktif yang dikembangkan OpenAI, berbasis model GPT-3.5. Dalam 5 hari, ChatGPT mencapai 1 juta pengguna, dan dalam 2 bulan telah melampaui 100 juta pengguna, menjadi aplikasi konsumen dengan pertumbuhan tercepat dalam sejarah.

ChatGPT mampu menjawab dengan lancar berbagai pertanyaan, mulai dari menulis teks, menyelesaikan soal, memberikan konsultasi, membuat pengguna terkesan dengan “kecerdasan” dan fleksibilitasnya. Popularitas ChatGPT menandai AI pertama kali digunakan secara massal sebagai alat pencipta konten, sekaligus memulai perlombaan AI antar “raksasa” teknologi.

Awal 2023, Microsoft mengintegrasikan GPT-4 (model penerus OpenAI) ke dalam mesin pencari Bing, sementara Google meluncurkan chatbot Bard yang menggunakan model LaMDA miliknya sendiri. Persaingan ini membantu teknologi AI generatif semakin meluas dan berkembang cepat.

Selain teks, AI generatif di bidang gambar dan suara juga berkembang pesat. Tahun 2022, model text-to-image seperti DALL-E 2 (OpenAI), Midjourney, dan Stable Diffusion memungkinkan pengguna memasukkan deskripsi teks dan menerima gambar yang digambar AI. Kualitas gambar yang hidup dan kreatif sangat mengagumkan, membuka era baru kreasi konten digital.

Namun, ini juga menimbulkan tantangan terkait hak cipta dan etika, karena AI belajar dari karya seni seniman dan menghasilkan produk serupa. Di bidang suara, model text-to-speech generasi baru dapat mengubah teks menjadi suara yang sangat mirip manusia asli, bahkan meniru suara selebritas, menimbulkan kekhawatiran tentang deepfake suara.

Tahun 2023, untuk pertama kalinya terjadi gugatan terkait hak cipta data pelatihan AI – misalnya Getty Images menggugat Stability AI (pengembang Stable Diffusion) karena menggunakan jutaan gambar berhak cipta tanpa izin untuk melatih model. Ini menunjukkan sisi gelap ledakan AI: masalah hukum, etika, dan sosial mulai muncul, menuntut perhatian serius.

Di tengah demam AI, tahun 2023 juga menyaksikan komunitas ahli menyuarakan kekhawatiran risiko AI kuat. Lebih dari 1.000 tokoh teknologi (termasuk Elon Musk, Steve Wozniak, peneliti AI) menandatangani surat terbuka yang menyerukan penundaan 6 bulan pelatihan model AI lebih besar dari GPT-4, karena khawatir perkembangan terlalu cepat di luar kendali.

Pada tahun yang sama, pelopor seperti Geoffrey Hinton (salah satu “bapak” deep learning) juga memperingatkan risiko AI yang melampaui kontrol manusia. Uni Eropa dengan cepat menyelesaikan Undang-Undang AI (EU AI Act) – regulasi komprehensif pertama di dunia tentang kecerdasan buatan, yang direncanakan berlaku mulai 2024. Undang-undang ini melarang sistem AI yang dianggap “risiko tidak dapat diterima” (seperti pengawasan massal, penilaian sosial) dan menuntut transparansi untuk model AI umum.

Di AS, beberapa negara bagian juga mengeluarkan undang-undang membatasi penggunaan AI di bidang sensitif (rekrutmen, keuangan, kampanye politik, dll.). Jelas, dunia sedang mempercepat pembentukan kerangka hukum dan etika untuk AI, bagian penting saat teknologi telah berkembang dengan dampak luas.

Secara umum, dekade 2020 menyaksikan ledakan AI baik dari sisi teknologi maupun popularitas. Alat AI generasi baru seperti ChatGPT, DALL-E, Midjourney, dll. telah menjadi akrab, membantu jutaan orang berkreasi dan bekerja lebih efektif dengan cara yang belum pernah ada sebelumnya.

Sementara itu, perlombaan investasi ke AI berlangsung sengit: diperkirakan pengeluaran bisnis untuk AI generatif akan melampaui 1 triliun USD dalam beberapa tahun ke depan. AI juga semakin meresap ke berbagai sektor: kesehatan (dukungan diagnosis citra, pencarian obat baru), keuangan (analisis risiko, deteksi penipuan), pendidikan (asisten pengajar virtual, konten pembelajaran personalisasi), transportasi (mobil otonom tingkat lanjut), pertahanan (pengambilan keputusan taktis), dan lain-lain.

Bisa dikatakan, AI kini seperti listrik atau Internet – infrastruktur teknologi yang ingin dimanfaatkan oleh semua bisnis dan pemerintah. Banyak ahli optimis bahwa AI akan terus membawa lompatan besar dalam produktivitas dan kualitas hidup jika dikembangkan dan dikelola dengan tepat.

AI pada dekade 2020


Dari tahun 1950-an hingga kini, sejarah perkembangan AI telah menempuh perjalanan luar biasa – penuh ambisi, kekecewaan, lalu kebangkitan. Dari konferensi kecil Dartmouth 1956 yang meletakkan dasar bidang ini, AI telah dua kali mengalami “musim dingin” karena ekspektasi berlebihan, namun setelahnya selalu bangkit lebih kuat berkat terobosan ilmiah dan teknologi. Terutama dalam 15 tahun terakhir, AI telah berkembang pesat, benar-benar keluar dari laboratorium ke dunia nyata dan membawa dampak luas.

Saat ini, AI hadir di hampir semua bidang dan semakin cerdas serta serbaguna. Namun, tujuan AI kuat (kecerdasan buatan umum) – mesin dengan kecerdasan fleksibel seperti manusia – masih berada di depan mata.

Model AI saat ini meski mengesankan, masih terbatas pada tugas yang dilatih, dan kadang membuat kesalahan konyol (seperti ChatGPT yang dapat “berhalusinasi” informasi salah dengan percaya diri tinggi). Tantangan keamanan dan etika juga menuntut perhatian mendesak: bagaimana mengembangkan AI yang terkontrol, transparan, dan demi kepentingan bersama umat manusia.

Perjalanan AI selanjutnya menjanjikan akan sangat menarik. Dengan kemajuan saat ini, kita dapat melihat AI akan semakin meresap ke dalam kehidupan: dari dokter AI yang membantu perawatan kesehatan, pengacara AI yang menelusuri dokumen hukum, hingga teman AI yang menemani belajar dan curhat.

Teknologi komputasi neuromorfik sedang diteliti untuk meniru arsitektur otak manusia, berpotensi menciptakan generasi AI baru yang efisien dan lebih mendekati kecerdasan alami. Meskipun prospek AI melampaui kecerdasan manusia masih kontroversial, jelas AI akan terus berevolusi dan membentuk masa depan umat manusia dengan cara yang mendalam.

Melihat kembali sejarah pembentukan dan perkembangan AI, kita melihat kisah tentang ketekunan dan kreativitas tanpa henti manusia. Dari komputer awal yang hanya bisa menghitung, manusia telah mengajarkan mesin bermain catur, mengemudi, mengenali dunia, bahkan mencipta seni. Kecerdasan buatan telah, sedang, dan akan terus menjadi bukti kemampuan kita melampaui batas.

Yang penting adalah kita belajar dari pelajaran sejarah – menempatkan ekspektasi dengan tepat, mengembangkan AI secara bertanggung jawab – agar AI memberikan manfaat maksimal bagi umat manusia di perjalanan berikutnya.