Kecerdasan Buatan (AI) kini terjalin dalam pelbagai aspek, daripada pembantu telefon pintar dan suapan media sosial hingga penjagaan kesihatan dan pengangkutan. Teknologi ini membawa manfaat yang belum pernah ada sebelumnya, tetapi ia juga datang dengan risiko dan cabaran yang besar.
Pakar dan institusi global memberi amaran bahawa tanpa garis panduan etika yang betul, AI boleh mengulangi bias dan diskriminasi dunia sebenar, menyumbang kepada kerosakan alam sekitar, mengancam hak asasi manusia, dan memburukkan ketidaksamaan sedia ada.
Dalam artikel ini, mari kita terokai bersama INVIAI risiko menggunakan AI merangkumi semua bidang dan jenis AI – daripada chatbot dan algoritma hingga robot – berdasarkan pandangan daripada sumber rasmi dan antarabangsa.
- 1. Bias dan Diskriminasi dalam Sistem AI
- 2. Bahaya Maklumat Salah dan Deepfake
- 3. Ancaman Privasi dan Pengawasan Beramai-ramai
- 4. Kegagalan Keselamatan dan Kemudaratan Tidak Sengaja
- 5. Penggantian Pekerjaan dan Gangguan Ekonomi
- 6. Penyalahgunaan Jenayah, Penipuan, dan Ancaman Keselamatan
- 7. Militarisasi dan Senjata Autonomi
- 8. Kekurangan Ketelusan dan Akauntabiliti
- 9. Pemusatan Kuasa dan Ketidaksamaan
- 10. Impak Alam Sekitar AI
- 11. Risiko Eksistensial dan Jangka Panjang
Bias dan Diskriminasi dalam Sistem AI
Salah satu risiko utama AI ialah pengukuhan bias dan diskriminasi tidak adil. Model AI belajar daripada data yang mungkin mencerminkan prasangka atau ketidaksamaan sejarah; akibatnya, sistem AI boleh melayan orang secara berbeza berdasarkan kaum, jantina, atau ciri lain dengan cara yang mengekalkan ketidakadilan.
Sebagai contoh, “AI serba guna yang tidak berfungsi dengan baik boleh menyebabkan kemudaratan melalui keputusan berat sebelah berkaitan ciri dilindungi seperti kaum, jantina, budaya, umur, dan kecacatan,” menurut laporan antarabangsa mengenai keselamatan AI.
Algoritma berat sebelah yang digunakan dalam pengambilan pekerja, pemberian pinjaman, atau penguatkuasaan undang-undang telah menyebabkan hasil yang tidak sama rata yang merugikan kumpulan tertentu secara tidak adil. Badan global seperti UNESCO memberi amaran bahawa tanpa langkah keadilan, AI berisiko “mengulangi bias dan diskriminasi dunia sebenar, memburukkan perpecahan dan mengancam hak asasi manusia dan kebebasan asas”. Memastikan sistem AI dilatih dengan data yang pelbagai dan mewakili serta diaudit untuk bias adalah penting untuk mengelakkan diskriminasi automatik.
Bahaya Maklumat Salah dan Deepfake
Keupayaan AI untuk menghasilkan teks, imej, dan video yang sangat realistik telah menimbulkan kebimbangan mengenai banjir maklumat salah. AI generatif boleh menghasilkan artikel berita palsu yang meyakinkan, imej palsu, atau video deepfake yang sukar dibezakan daripada realiti.
Laporan Global Risks Report 2024 oleh Forum Ekonomi Dunia mengenal pasti “maklumat yang dimanipulasi dan dipalsukan” sebagai risiko global jangka pendek yang paling serius, dengan menyatakan AI “memburukkan maklumat yang dimanipulasi dan diputarbelitkan yang boleh mengganggu kestabilan masyarakat.”
Sebenarnya, maklumat salah dan disinformasi yang dipacu oleh AI merupakan salah satu “cabaran terbesar dalam proses demokrasi” – terutamanya dengan berbilion orang yang akan mengundi dalam pilihan raya akan datang. Media sintetik seperti video deepfake dan suara klon AI boleh digunakan sebagai senjata untuk menyebarkan propaganda, menyamar sebagai tokoh awam, atau melakukan penipuan.
Pegawai memberi amaran bahawa pelaku berniat jahat boleh menggunakan AI untuk kempen disinformasi berskala besar, memudahkan penyebaran kandungan palsu di rangkaian sosial dan menimbulkan kekacauan. Risikonya ialah persekitaran maklumat yang sinis di mana rakyat tidak dapat mempercayai apa yang mereka lihat atau dengar, merosakkan wacana awam dan demokrasi.
Ancaman Privasi dan Pengawasan Beramai-ramai
Penggunaan AI secara meluas menimbulkan kebimbangan serius mengenai privasi. Sistem AI sering memerlukan sejumlah besar data peribadi – daripada wajah dan suara kita hingga tabiat membeli-belah dan lokasi – untuk berfungsi dengan berkesan. Tanpa perlindungan kukuh, data ini boleh disalahgunakan atau dieksploitasi.
Sebagai contoh, pengecaman wajah dan algoritma ramalan boleh membolehkan pengawasan menyeluruh, mengesan setiap pergerakan individu atau menilai tingkah laku mereka tanpa kebenaran. Cadangan etika AI global UNESCO secara jelas memberi amaran bahawa “sistem AI tidak harus digunakan untuk penilaian sosial atau tujuan pengawasan beramai-ramai.” Penggunaan sedemikian dianggap risiko yang tidak boleh diterima.
Selain itu, analisis data peribadi yang dipacu AI boleh mendedahkan butiran intim tentang kehidupan kita, daripada status kesihatan hingga kepercayaan politik, yang mengancam hak privasi. Agensi perlindungan data menegaskan bahawa privasi adalah “hak yang penting untuk melindungi maruah, autonomi dan kebebasan manusia” yang mesti dihormati sepanjang kitaran hayat sistem AI.
Jika pembangunan AI melebihi peraturan privasi, individu boleh kehilangan kawalan ke atas maklumat mereka sendiri. Masyarakat mesti memastikan tadbir urus data yang kukuh, mekanisme persetujuan, dan teknik pemeliharaan privasi dilaksanakan supaya teknologi AI tidak menjadi alat pengawasan tanpa kawalan.
Kegagalan Keselamatan dan Kemudaratan Tidak Sengaja
Walaupun AI boleh mengautomasikan keputusan dan tugas fizikal dengan kecekapan luar biasa, ia juga boleh gagal dengan cara yang tidak dijangka, menyebabkan kemudaratan dunia sebenar. Kita mempercayakan AI dengan tanggungjawab kritikal keselamatan – seperti memandu kereta, mendiagnosis pesakit, atau mengurus grid kuasa – tetapi sistem ini tidak sempurna.
Gangguan, data latihan yang cacat, atau situasi yang tidak dijangka boleh menyebabkan AI membuat kesilapan berbahaya. AI kereta pandu sendiri mungkin salah mengenal pasti pejalan kaki, atau AI perubatan boleh mencadangkan rawatan yang salah, dengan akibat yang berpotensi membawa maut.
Menyedari hal ini, garis panduan antarabangsa menekankan bahawa kemudaratan yang tidak diingini dan risiko keselamatan daripada AI harus dijangka dan dicegah: “Kemudaratan yang tidak diingini (risiko keselamatan), serta kerentanan terhadap serangan (risiko keselamatan siber) harus dielakkan dan ditangani sepanjang kitaran hayat sistem AI untuk memastikan keselamatan dan perlindungan manusia, alam sekitar dan ekosistem.”
Dengan kata lain, sistem AI mesti diuji dengan teliti, dipantau, dan dibina dengan mekanisme keselamatan untuk meminimumkan kemungkinan kegagalan. Bergantung terlalu banyak pada AI juga berisiko – jika manusia mempercayai keputusan automatik tanpa soal, mereka mungkin tidak campur tangan tepat pada masanya apabila berlaku kesilapan.
Memastikan pengawasan manusia adalah sangat penting. Dalam penggunaan berisiko tinggi (seperti penjagaan kesihatan atau pengangkutan), keputusan akhir harus kekal di bawah pertimbangan manusia, dan seperti yang dinyatakan UNESCO, “keputusan hidup dan mati tidak harus diserahkan kepada sistem AI.” Menjaga keselamatan dan kebolehpercayaan AI adalah cabaran berterusan yang memerlukan reka bentuk teliti dan budaya tanggungjawab daripada pembangun AI.
Penggantian Pekerjaan dan Gangguan Ekonomi
Impak transformasi AI terhadap ekonomi adalah pedang bermata dua. Di satu pihak, AI boleh meningkatkan produktiviti dan mencipta industri baharu sepenuhnya; di pihak lain, ia membawa risiko menggantikan jutaan pekerja melalui automasi.
Banyak pekerjaan – terutamanya yang melibatkan tugas rutin, berulang atau data yang mudah dianalisis – berisiko diambil alih oleh algoritma dan robot AI. Ramalan global menunjukkan situasi yang membimbangkan: contohnya, Forum Ekonomi Dunia meramalkan bahawa “sembilan puluh dua juta pekerjaan dijangka digantikan menjelang 2030” akibat AI dan teknologi berkaitan.
Walaupun ekonomi mungkin juga mencipta peranan baharu (mungkin lebih banyak pekerjaan daripada yang hilang dalam jangka masa panjang), peralihan ini akan menyakitkan bagi ramai. Pekerjaan yang diperoleh sering memerlukan kemahiran berbeza dan lebih maju atau tertumpu di pusat teknologi tertentu, menyebabkan ramai pekerja yang digantikan sukar mencari tapak baru.
Ketidaksesuaian antara kemahiran pekerja dan keperluan peranan baharu yang dipacu AI boleh menyebabkan kadar pengangguran dan ketidaksamaan meningkat jika tidak ditangani. Malah, pembuat dasar dan penyelidik memberi amaran bahawa kemajuan AI yang pesat boleh membawa kepada “gangguan pasaran buruh dan ketidaksamaan kuasa ekonomi” secara sistemik.
Kumpulan tertentu mungkin terjejas lebih teruk – contohnya, beberapa kajian menunjukkan bahagian pekerjaan yang lebih besar dipegang oleh wanita atau pekerja di negara membangun berisiko tinggi automasi. Tanpa langkah proaktif (seperti program latihan semula, pendidikan kemahiran AI, dan jaringan keselamatan sosial), AI boleh memburukkan jurang sosioekonomi, mewujudkan ekonomi yang dipacu AI di mana pemilik teknologi menikmati sebahagian besar manfaat.
Mempersiapkan tenaga kerja menghadapi impak AI adalah kritikal untuk memastikan manfaat automasi dikongsi secara meluas dan mengelakkan kegelisahan sosial akibat kehilangan pekerjaan secara besar-besaran.
Penyalahgunaan Jenayah, Penipuan, dan Ancaman Keselamatan
AI adalah alat yang kuat yang boleh digunakan untuk tujuan jahat sama seperti untuk tujuan mulia. Penjenayah siber dan pelaku berniat jahat lain sudah pun mengeksploitasi AI untuk meningkatkan serangan mereka.
Contohnya, AI boleh menghasilkan e-mel phishing atau mesej suara yang sangat diperibadikan (dengan meniru suara seseorang) untuk memperdaya orang mendedahkan maklumat sensitif atau menghantar wang. Ia juga boleh digunakan untuk mengautomasikan penggodaman dengan mencari kelemahan perisian secara besar-besaran atau membangunkan perisian hasad yang menyesuaikan diri untuk mengelak dikesan.
Pusat Keselamatan AI mengenal pasti penyalahgunaan AI sebagai kebimbangan utama, dengan menyatakan senario seperti sistem AI digunakan oleh penjenayah untuk melakukan penipuan dan serangan siber berskala besar. Malah, laporan yang dibiayai kerajaan UK secara jelas memberi amaran bahawa “pelaku berniat jahat boleh menggunakan AI untuk operasi disinformasi dan pengaruh berskala besar, penipuan, dan penipuan”.
Kelajuan, skala, dan kecanggihan yang dibawa AI boleh membanjiri pertahanan tradisional – bayangkan ribuan panggilan penipuan yang dijana AI atau video deepfake yang menyasarkan keselamatan syarikat dalam satu hari.
Selain jenayah kewangan, terdapat juga risiko AI digunakan untuk memudahkan pencurian identiti, gangguan, atau penciptaan kandungan berbahaya (seperti pornografi deepfake tanpa persetujuan atau propaganda untuk kumpulan ekstremis). Apabila alat AI menjadi lebih mudah diakses, halangan untuk melakukan aktiviti jahat ini menjadi rendah, berpotensi menyebabkan peningkatan jenayah yang dipertingkatkan AI.
Ini memerlukan pendekatan baru dalam keselamatan siber dan penguatkuasaan undang-undang, seperti sistem AI yang boleh mengesan deepfake atau tingkah laku luar biasa dan rangka kerja undang-undang yang dikemas kini untuk memegang pesalah bertanggungjawab. Intinya, kita mesti menjangka bahawa apa sahaja keupayaan yang AI berikan kepada pihak baik, ia juga mungkin diberikan kepada penjenayah – dan bersiap sedia menghadapinya.
Militarisasi dan Senjata Autonomi
Mungkin risiko paling menakutkan AI muncul dalam konteks peperangan dan keselamatan negara. AI sedang pantas diintegrasikan ke dalam sistem ketenteraan, menimbulkan kemungkinan senjata autonomi (“robot pembunuh”) dan pembuatan keputusan berasaskan AI dalam pertempuran.
Teknologi ini boleh bertindak lebih pantas daripada manusia, tetapi menghilangkan kawalan manusia dalam penggunaan kekuatan mematikan penuh dengan bahaya. Terdapat risiko bahawa senjata yang dikawal AI mungkin memilih sasaran yang salah atau meningkatkan konflik dengan cara yang tidak dijangka. Pemerhati antarabangsa memberi amaran bahawa “penggunaan AI sebagai senjata ketenteraan” adalah ancaman yang semakin meningkat.
Jika negara berlumba-lumba melengkapkan senjata pintar mereka, ia boleh mencetuskan perlumbaan senjata yang tidak stabil. Selain itu, AI boleh digunakan dalam peperangan siber untuk menyerang infrastruktur kritikal secara autonomi atau menyebarkan propaganda, mengaburkan sempadan antara keamanan dan konflik.
Pertubuhan Bangsa-Bangsa Bersatu telah menyuarakan kebimbangan bahawa pembangunan AI dalam peperangan, jika tertumpu di tangan beberapa pihak sahaja, “boleh dipaksakan ke atas orang tanpa mereka mempunyai suara dalam cara ia digunakan,” yang boleh merosakkan keselamatan dan etika global.
Sistem senjata autonomi juga menimbulkan dilema undang-undang dan moral – siapa yang bertanggungjawab jika dron AI tersilap membunuh orang awam? Bagaimana sistem sebegini mematuhi undang-undang kemanusiaan antarabangsa?
Soalan yang belum terjawab ini telah membawa kepada seruan untuk pengharaman atau pengawalseliaan ketat terhadap senjata tertentu yang menggunakan AI. Memastikan pengawasan manusia ke atas mana-mana AI yang boleh membuat keputusan hidup dan mati dilihat sebagai sangat penting. Tanpanya, risikonya bukan sahaja kesilapan tragis di medan perang tetapi juga penghakisan tanggungjawab manusia dalam peperangan.
Kekurangan Ketelusan dan Akauntabiliti
Kebanyakan sistem AI canggih hari ini beroperasi sebagai “kotak hitam” – logik dalaman mereka sering tidak jelas walaupun kepada penciptanya. Kekurangan ketelusan ini menimbulkan risiko bahawa keputusan AI tidak dapat dijelaskan atau dicabar, yang merupakan masalah serius dalam bidang seperti keadilan, kewangan, atau penjagaan kesihatan di mana penjelasan boleh menjadi keperluan undang-undang atau etika.
Jika AI menolak permohonan pinjaman seseorang, mendiagnosis penyakit, atau memutuskan siapa yang layak parol, kita secara semula jadi ingin tahu sebabnya. Dengan sesetengah model AI (terutamanya rangkaian neural yang kompleks), memberikan alasan yang jelas adalah sukar.
“Kekurangan ketelusan” boleh menghakis kepercayaan dan “juga boleh menghalang kemungkinan mencabar keputusan berdasarkan hasil yang dihasilkan oleh sistem AI,” menurut UNESCO, “dan mungkin melanggar hak untuk perbicaraan yang adil dan remedi yang berkesan.”
Dengan kata lain, jika pengguna atau pengawal selia tidak dapat memahami bagaimana AI membuat keputusan, hampir mustahil untuk memegang sesiapa bertanggungjawab atas kesilapan atau bias yang timbul.
Jurang akauntabiliti ini adalah risiko besar: syarikat mungkin mengelak tanggungjawab dengan menyalahkan “algoritma,” dan individu yang terjejas mungkin tidak mempunyai jalan penyelesaian. Untuk mengatasi ini, pakar menggalakkan teknik AI yang boleh diterangkan, audit yang ketat, dan keperluan pengawalseliaan supaya keputusan AI boleh dijejaki kepada pihak berkuasa manusia.
Malahan, garis panduan etika global menegaskan bahawa “sentiasa harus mungkin untuk mengaitkan tanggungjawab etika dan undang-undang” bagi tingkah laku sistem AI kepada individu atau organisasi. Manusia mesti kekal bertanggungjawab sepenuhnya, dan AI harus membantu bukan menggantikan pertimbangan manusia dalam hal-hal sensitif. Jika tidak, kita berisiko mencipta dunia di mana keputusan penting dibuat oleh mesin yang tidak dapat difahami, yang merupakan resipi untuk ketidakadilan.
Pemusatan Kuasa dan Ketidaksamaan
Revolusi AI tidak berlaku secara sama rata di seluruh dunia – sejumlah kecil syarikat dan negara menguasai pembangunan AI canggih, yang membawa risiko tersendiri.
Model AI termaju memerlukan data, bakat, dan sumber pengkomputeran yang sangat besar yang hanya dimiliki oleh gergasi teknologi (dan kerajaan yang berpendanaan kukuh) pada masa ini. Ini telah membawa kepada “rantaian bekalan yang sangat tertumpu, tunggal, dan bersepadu secara global yang memihak kepada beberapa syarikat dan negara,” menurut Forum Ekonomi Dunia.
Pemusatan kuasa AI sebegini boleh membawa kepada penguasaan monopoli ke atas teknologi AI, mengehadkan persaingan dan pilihan pengguna. Ia juga menimbulkan bahaya bahawa keutamaan beberapa syarikat atau negara tersebut akan membentuk AI dengan cara yang tidak mengambil kira kepentingan awam yang lebih luas.
Pertubuhan Bangsa-Bangsa Bersatu telah menyatakan “bahaya bahawa teknologi [AI] boleh dipaksakan ke atas orang tanpa mereka mempunyai suara dalam cara ia digunakan,” apabila pembangunan tertumpu kepada segelintir pihak berkuasa.
Ketidakseimbangan ini boleh memburukkan ketidaksamaan global: negara dan firma kaya melangkah jauh dengan memanfaatkan AI, manakala komuniti miskin kekurangan akses kepada alat terkini dan mengalami kehilangan pekerjaan tanpa menikmati manfaat AI. Selain itu, industri AI yang tertumpu mungkin menghalang inovasi (jika pendatang baru tidak dapat bersaing dengan sumber sedia ada) dan menimbulkan risiko keselamatan (jika infrastruktur AI kritikal dikawal oleh beberapa entiti sahaja, ia menjadi titik kegagalan atau manipulasi tunggal).
Mengatasi risiko ini memerlukan kerjasama antarabangsa dan mungkin peraturan baru untuk mendemokrasikan pembangunan AI – contohnya, menyokong penyelidikan terbuka, memastikan akses adil kepada data dan pengkomputeran, serta merangka dasar (seperti Akta AI Kesatuan Eropah yang dicadangkan) untuk menghalang amalan penyalahgunaan oleh “penjaga pintu AI.” Lanskap AI yang lebih inklusif akan membantu memastikan manfaat AI dikongsi secara global, bukannya melebarkan jurang antara yang berkemampuan teknologi dan yang tidak.
Impak Alam Sekitar AI
Sering diabaikan dalam perbincangan mengenai risiko AI ialah jejak alam sekitarnya. Pembangunan AI, terutamanya latihan model pembelajaran mesin berskala besar, menggunakan sejumlah besar elektrik dan kuasa pengkomputeran.
Pusat data yang dipenuhi ribuan pelayan yang memerlukan tenaga tinggi diperlukan untuk memproses aliran data yang dipelajari oleh sistem AI. Ini bermakna AI secara tidak langsung menyumbang kepada emisi karbon dan perubahan iklim.
Laporan agensi Pertubuhan Bangsa-Bangsa Bersatu baru-baru ini mendapati emisi karbon tidak langsung daripada empat syarikat teknologi terkemuka yang fokus pada AI meningkat secara purata sebanyak 150% dari 2020 hingga 2023, sebahagian besarnya disebabkan oleh keperluan tenaga pusat data AI.
Dengan pelaburan dalam AI yang semakin meningkat, emisi daripada menjalankan model AI dijangka meningkat dengan mendadak – laporan itu meramalkan bahawa sistem AI teratas boleh mengeluarkan lebih 100 juta tan CO₂ setahun secara kolektif, memberi tekanan besar kepada infrastruktur tenaga.
Untuk memberi gambaran, pusat data yang menyokong AI meningkatkan penggunaan elektrik “empat kali lebih pantas daripada peningkatan keseluruhan penggunaan elektrik”.
Selain emisi karbon, AI juga boleh menggunakan banyak air untuk penyejukan dan menghasilkan sisa elektronik apabila perkakasan dinaik taraf dengan cepat. Jika tidak dikawal, impak alam sekitar AI boleh merosakkan usaha kelestarian global.
Risiko ini menuntut AI menjadi lebih cekap tenaga dan menggunakan sumber tenaga yang lebih bersih. Para penyelidik sedang membangunkan teknik AI hijau untuk mengurangkan penggunaan tenaga, dan beberapa syarikat telah berjanji untuk mengimbangi kos karbon AI. Walau bagaimanapun, ia kekal sebagai kebimbangan mendesak bahawa perlumbaan ke arah AI boleh membawa harga alam sekitar yang tinggi. Menyeimbangkan kemajuan teknologi dengan tanggungjawab ekologi adalah cabaran lain yang mesti dihadapi masyarakat ketika kita mengintegrasikan AI di mana-mana.
Risiko Eksistensial dan Jangka Panjang
Selain risiko segera, sesetengah pakar memberi amaran tentang risiko jangka panjang dan spekulatif daripada AI – termasuk kemungkinan AI maju yang berkembang melebihi kawalan manusia. Walaupun sistem AI hari ini terhad dalam keupayaan, penyelidik sedang aktif berusaha ke arah AI umum yang berpotensi mengatasi manusia dalam banyak bidang.
Ini menimbulkan persoalan kompleks: jika AI menjadi jauh lebih pintar atau autonomi, adakah ia boleh bertindak dengan cara yang mengancam kewujudan manusia? Walaupun kedengaran seperti fiksyen sains, tokoh terkemuka dalam komuniti teknologi telah menyuarakan kebimbangan mengenai senario AI liar, dan kerajaan mengambil perbincangan ini dengan serius.
Pada 2023, UK menganjurkan Sidang Kemuncak Keselamatan AI global untuk menangani risiko AI hadapan. Konsensus saintifik tidak seragam – sesetengah percaya AI super-pintar masih beberapa dekad lagi atau boleh dikawal selari dengan nilai manusia, manakala yang lain melihat kemungkinan kecil tetapi nyata terhadap hasil bencana.
Laporan keselamatan AI antarabangsa baru-baru ini menekankan bahawa “pakar mempunyai pandangan berbeza mengenai risiko manusia kehilangan kawalan ke atas AI yang boleh mengakibatkan hasil bencana.”
Intinya, terdapat pengakuan bahawa risiko eksistensial daripada AI, walaupun jauh, tidak boleh diabaikan sepenuhnya. Keputusan sedemikian mungkin melibatkan AI yang mengejar matlamatnya dengan mengorbankan kesejahteraan manusia (contoh klasik ialah AI yang, jika diprogram dengan salah, memutuskan untuk melakukan sesuatu yang berbahaya secara besar-besaran kerana kekurangan akal sehat atau batasan moral).
Walaupun tiada AI hari ini mempunyai keupayaan sedemikian, kelajuan kemajuan AI adalah pantas dan tidak dapat diramal, yang merupakan faktor risiko tersendiri. Bersiap sedia menghadapi risiko jangka panjang bermakna melabur dalam penyelidikan penjajaran AI (memastikan matlamat AI selaras dengan nilai manusia), mewujudkan perjanjian antarabangsa mengenai penyelidikan AI berisiko tinggi (seperti perjanjian senjata nuklear atau biologi), dan mengekalkan pengawasan manusia apabila sistem AI menjadi lebih berupaya.
Masa depan AI penuh dengan janji besar, tetapi juga ketidakpastian – dan kebijaksanaan menghendaki kita mempertimbangkan risiko berimpak tinggi walaupun dengan kebarangkalian rendah dalam perancangan jangka panjang.
>>> Klik untuk ketahui lebih lanjut: Manfaat AI untuk Individu dan Perniagaan
AI sering dibandingkan dengan enjin berkuasa yang boleh memacu kemajuan manusia – tetapi tanpa brek dan stereng, enjin itu boleh tersasar. Seperti yang telah kita lihat, risiko menggunakan AI adalah berbilang aspek: daripada isu segera seperti algoritma berat sebelah, berita palsu, pencerobohan privasi, dan pergolakan pekerjaan, hingga cabaran masyarakat yang lebih luas seperti ancaman keselamatan, pembuatan keputusan “kotak hitam”, monopoli Gergasi Teknologi, tekanan alam sekitar, dan bahkan bayangan jauh kehilangan kawalan kepada AI super-pintar.
Risiko ini tidak bermakna kita harus menghentikan pembangunan AI; sebaliknya, ia menekankan keperluan mendesak untuk tadbir urus AI yang bertanggungjawab dan amalan etika.
Kerajaan, organisasi antarabangsa, pemimpin industri, dan penyelidik semakin bekerjasama untuk menangani kebimbangan ini – contohnya, melalui rangka kerja seperti AI Risk Management Framework NIST AS (untuk meningkatkan kepercayaan AI), Cadangan Etika AI UNESCO, dan Akta AI Kesatuan Eropah.
Usaha-usaha ini bertujuan untuk memaksimumkan manfaat AI sambil meminimumkan kesan negatifnya, memastikan AI berkhidmat kepada manusia dan bukan sebaliknya. Akhirnya, memahami risiko AI adalah langkah pertama untuk menguruskannya. Dengan kekal maklum dan terlibat dalam cara AI dibangunkan dan digunakan, kita boleh membantu mengemudi teknologi transformatif ini ke arah yang selamat, adil, dan bermanfaat untuk semua.