Risiko Menggunakan AI

Kecerdasan Buatan (AI) membawa banyak manfaat tetapi juga menimbulkan banyak risiko jika disalahgunakan atau digunakan tanpa kawalan. Dari isu keselamatan data, penyimpangan maklumat, pelanggaran hak cipta hingga risiko penggantian tenaga kerja, AI menghadirkan cabaran yang perlu dikenal pasti dan diurus dengan berkesan. Memahami risiko menggunakan AI membantu individu dan perniagaan menggunakan teknologi ini dengan selamat dan lestari.

Kecerdasan Buatan (AI) kini terjalin dalam segala-galanya dari pembantu telefon pintar dan suapan media sosial hingga penjagaan kesihatan dan pengangkutan. Teknologi ini membawa manfaat yang belum pernah terjadi sebelumnya, tetapi ia juga datang dengan risiko dan cabaran yang ketara.

Amaran Kritikal: Pakar dan institusi global memberi amaran bahawa tanpa panduan etika yang betul, AI boleh menghasilkan semula bias dan diskriminasi dunia nyata, menyumbang kepada kerosakan alam sekitar, mengancam hak asasi manusia, dan memperkuat ketidaksamaan sedia ada.

Dalam artikel ini, mari kita terokai bersama INVIAI risiko menggunakan AI merentasi semua bidang dan jenis AI – dari chatbot dan algoritma hingga robot – berdasarkan pandangan dari sumber rasmi dan antarabangsa.

Bias dan Diskriminasi dalam Sistem AI

Satu risiko utama AI adalah pengukuhan bias dan diskriminasi tidak adil. Model AI belajar dari data yang mungkin mencerminkan prasangka atau ketidaksamaan sejarah; akibatnya, sistem AI boleh melayan orang secara berbeza berdasarkan kaum, jantina, atau ciri lain dengan cara yang mengekalkan ketidakadilan.

AI serba guna yang tidak berfungsi dengan baik boleh menyebabkan kemudaratan melalui keputusan berat sebelah berkaitan ciri dilindungi seperti kaum, jantina, budaya, umur, dan kecacatan.

— Laporan Keselamatan AI Antarabangsa
Impak Dunia Nyata: Algoritma berat sebelah yang digunakan dalam pengambilan pekerja, pemberian pinjaman, atau penguatkuasaan undang-undang telah menyebabkan hasil yang tidak sama rata yang merugikan kumpulan tertentu secara tidak adil.

Badang global seperti UNESCO memberi amaran bahawa tanpa langkah keadilan, AI berisiko "menghasilkan semula bias dan diskriminasi dunia nyata, memupuk perpecahan dan mengancam hak asasi manusia dan kebebasan asas". Memastikan sistem AI dilatih dengan data yang pelbagai dan mewakili serta diaudit untuk bias adalah penting untuk mengelakkan diskriminasi automatik.

Bias Pengambilan Pekerja

Alat pengambilan AI mungkin mendiskriminasi demografi tertentu

Diskriminasi Pemberian Pinjaman

Algoritma kewangan mungkin menolak pinjaman secara tidak adil berdasarkan ciri dilindungi

Ketidaksamaan Penguatkuasaan Undang-Undang

Polis ramalan mungkin mengukuhkan bias penguatkuasaan undang-undang sedia ada

Bias dan Diskriminasi dalam Sistem AI
Bias dan Diskriminasi dalam Sistem AI

Bahaya Maklumat Salah dan Deepfake

Keupayaan AI untuk menghasilkan teks, imej, dan video hiper-realistik telah menimbulkan kebimbangan tentang banjir maklumat salah. AI Generatif boleh menghasilkan artikel berita palsu yang meyakinkan, imej palsu, atau video deepfake yang sukar dibezakan dari realiti.

Amaran Risiko Global: Laporan Risiko Global Forum Ekonomi Dunia 2024 mengenal pasti "maklumat yang dimanipulasi dan dipalsukan" sebagai risiko global jangka pendek yang paling teruk, dengan menyatakan AI "memperkuat maklumat yang dimanipulasi dan diputarbelit yang boleh mengacaukan masyarakat."

Sebenarnya, maklumat salah dan disinformasi yang dipacu oleh AI merupakan salah satu "cabaran terbesar pernah berlaku kepada proses demokrasi" – terutamanya dengan berbilion orang yang akan mengundi dalam pilihan raya akan datang. Media sintetik seperti video deepfake dan suara klon AI boleh digunakan sebagai senjata untuk menyebarkan propaganda, menyamar sebagai tokoh awam, atau melakukan penipuan.

Video Deepfake

Video palsu hiper-realistik yang boleh menyamar sesiapa sahaja, berpotensi digunakan untuk penipuan atau manipulasi politik.

Klon Suara

Replika suara yang dijana AI yang boleh meniru corak pertuturan sesiapa untuk tujuan menipu.

Pegawai memberi amaran bahawa pelaku jahat boleh menggunakan AI untuk kempen disinformasi berskala besar, memudahkan banjir kandungan palsu di rangkaian sosial dan menabur kekacauan. Risikonya adalah persekitaran maklumat yang sinis di mana rakyat tidak boleh mempercayai apa yang mereka lihat atau dengar, merosakkan wacana awam dan demokrasi.

Bahaya Maklumat Salah dan Deepfake dalam AI
Bahaya Maklumat Salah dan Deepfake dalam AI

Ancaman Privasi dan Pengawasan Besar-Besaran

Penggunaan AI yang meluas menimbulkan kebimbangan privasi yang serius. Sistem AI sering memerlukan sejumlah besar data peribadi – dari wajah dan suara kita hingga tabiat membeli-belah dan lokasi – untuk berfungsi dengan berkesan. Tanpa perlindungan kukuh, data ini boleh disalahgunakan atau dieksploitasi.

Amaran UNESCO: Sistem AI tidak harus digunakan untuk penilaian sosial atau tujuan pengawasan besar-besaran. Penggunaan sedemikian secara meluas dianggap sebagai risiko yang tidak boleh diterima.

Contohnya, pengecaman wajah dan algoritma ramalan boleh membolehkan pengawasan menyeluruh, menjejaki setiap pergerakan individu atau menilai tingkah laku mereka tanpa kebenaran.

Pengecaman Wajah

Penjejakan berterusan individu di ruang awam

  • Penjejakan identiti
  • Analisis tingkah laku

Analitik Ramalan

Analisis AI yang mendedahkan maklumat peribadi yang intim

  • Status kesihatan
  • Kepercayaan politik

Penilaian Sosial

Menilai rakyat berdasarkan corak tingkah laku

  • Penilaian kredit
  • Pematuhan sosial

Privasi adalah hak yang penting untuk melindungi maruah manusia, autonomi dan keupayaan yang mesti dihormati sepanjang kitaran hayat sistem AI.

— Agensi Perlindungan Data

Jika pembangunan AI melebihi peraturan privasi, individu boleh kehilangan kawalan ke atas maklumat mereka sendiri. Masyarakat mesti memastikan tadbir urus data yang kukuh, mekanisme persetujuan, dan teknik pemeliharaan privasi ada supaya teknologi AI tidak menjadi alat pengawasan tanpa kawalan.

Ancaman Privasi dan Pengawasan Besar-Besaran
Ancaman Privasi dan Pengawasan Besar-Besaran

Kegagalan Keselamatan dan Kemudaratan Tidak Sengaja

Walaupun AI boleh mengautomasikan keputusan dan tugas fizikal dengan kecekapan luar biasa, ia juga boleh gagal dengan cara yang tidak dijangka, menyebabkan kemudaratan dunia nyata. Kita mempercayakan AI dengan tanggungjawab keselamatan yang semakin kritikal – seperti memandu kereta, mendiagnosis pesakit, atau mengurus grid kuasa – tetapi sistem ini tidak sempurna.

Gangguan, data latihan yang cacat, atau situasi yang tidak dijangka boleh menyebabkan AI membuat kesilapan berbahaya. AI kereta pandu sendiri mungkin salah mengenal pasti pejalan kaki, atau AI perubatan boleh mencadangkan rawatan yang salah, dengan akibat yang berpotensi membawa maut.

Kenderaan Autonomi

Salah kenal pejalan kaki atau halangan yang menyebabkan kemalangan

AI Perubatan

Diagnosis atau cadangan rawatan yang salah dengan akibat mengancam nyawa

Pengurusan Grid Kuasa

Kegagalan sistem menyebabkan gangguan bekalan elektrik atau kerosakan infrastruktur meluas

Kemudaratan yang tidak diingini (risiko keselamatan), serta kerentanan terhadap serangan (risiko keselamatan) harus dielakkan dan ditangani sepanjang kitaran hayat sistem AI untuk memastikan keselamatan dan keamanan manusia, alam sekitar dan ekosistem.

— Garis Panduan AI Antarabangsa
Prinsip Kritikal: Keputusan hidup dan mati tidak harus diserahkan kepada sistem AI. Memastikan pengawasan manusia adalah penting dalam aplikasi berisiko tinggi.

Dengan kata lain, sistem AI mesti diuji dengan teliti, dipantau, dan dibina dengan mekanisme keselamatan untuk meminimumkan kemungkinan kegagalan. Bergantung terlalu banyak pada AI juga berisiko – jika manusia mempercayai keputusan automatik secara membuta tuli, mereka mungkin tidak campur tangan tepat pada masanya apabila sesuatu berlaku salah.

Memastikan pengawasan manusia adalah sangat penting. Dalam penggunaan berisiko tinggi (seperti penjagaan kesihatan atau pengangkutan), keputusan akhir harus kekal tertakluk kepada pertimbangan manusia. Menjaga keselamatan dan kebolehpercayaan AI adalah cabaran berterusan yang memerlukan reka bentuk berhati-hati dan budaya tanggungjawab dari pembangun AI.

Kegagalan Keselamatan dan Kemudaratan Tidak Sengaja dalam AI
Kegagalan Keselamatan dan Kemudaratan Tidak Sengaja dalam AI

Penggantian Pekerjaan dan Gangguan Ekonomi

Impak transformasi AI terhadap ekonomi adalah pedang bermata dua. Di satu pihak, AI boleh meningkatkan produktiviti dan mencipta industri baru sepenuhnya; di pihak lain, ia menimbulkan risiko menggantikan jutaan pekerja melalui automasi.

Banyak pekerjaan – terutamanya yang melibatkan tugas rutin, berulang atau data yang mudah dianalisis – berisiko diambil alih oleh algoritma AI dan robot.

Unjuran Mengejutkan: Forum Ekonomi Dunia meramalkan bahawa sembilan puluh dua juta pekerjaan dijangka digantikan menjelang 2030 akibat AI dan teknologi berkaitan.
Tenaga Kerja Semasa

Pekerjaan Tradisional

  • Tugas rutin dan berulang
  • Peranan analisis data
  • Posisi kerja manual
  • Perkhidmatan pelanggan asas
Ekonomi Berpandukan AI

Keperluan Kemahiran Baru

  • Kemahiran kerjasama dengan AI
  • Penyelesaian masalah kreatif
  • Pengurusan teknikal AI
  • Perkhidmatan berfokuskan manusia

Walaupun ekonomi mungkin juga mencipta peranan baru (mungkin lebih banyak pekerjaan daripada yang hilang dalam jangka panjang), peralihan ini akan menyakitkan bagi ramai. Pekerjaan yang diperoleh sering memerlukan kemahiran berbeza dan lebih maju atau tertumpu di pusat teknologi tertentu, bermakna ramai pekerja yang digantikan mungkin menghadapi kesukaran mencari tempat baru.

Ketidaksesuaian antara kemahiran pekerja dan keperluan kemahiran peranan baru berpandukan AI boleh menyebabkan pengangguran dan ketidaksamaan yang lebih tinggi jika tidak ditangani. Malah, pembuat dasar dan penyelidik memberi amaran bahawa kemajuan AI yang pesat boleh membawa "gangguan pasaran tenaga kerja, dan ketidaksamaan kuasa ekonomi" secara sistemik.

Impak Jantina

Bahagian pekerjaan yang lebih tinggi dipegang oleh wanita berisiko automasi

Negara Membangun

Pekerja di negara membangun menghadapi risiko automasi yang lebih tinggi

Tanpa langkah proaktif (seperti program latihan semula, pendidikan kemahiran AI, dan jaringan keselamatan sosial), AI boleh memperlebar jurang sosioekonomi, mewujudkan ekonomi berpandukan AI di mana mereka yang memiliki teknologi menuai kebanyakan manfaat.

Mempersiapkan tenaga kerja untuk impak AI adalah kritikal untuk memastikan manfaat automasi dikongsi secara meluas dan mengelakkan kegelisahan sosial akibat kehilangan pekerjaan secara besar-besaran.

Penggantian Pekerjaan dan Gangguan Ekonomi dalam AI
Penggantian Pekerjaan dan Gangguan Ekonomi dalam AI

Penyalahgunaan Jenayah, Penipuan, dan Ancaman Keselamatan

AI adalah alat yang kuat yang boleh digunakan untuk tujuan jahat sama seperti untuk tujuan mulia. Penjenayah siber dan pelaku jahat lain sudah mengeksploitasi AI untuk meningkatkan serangan mereka.

Contohnya, AI boleh menjana e-mel phishing atau mesej suara yang sangat diperibadikan (dengan meniru suara seseorang) untuk menipu orang mendedahkan maklumat sensitif atau menghantar wang. Ia juga boleh digunakan untuk mengautomasikan penggodaman dengan mencari kelemahan perisian secara besar-besaran atau membangunkan perisian hasad yang menyesuaikan diri untuk mengelak pengesanan.

Phishing Berpandukan AI

E-mel penipuan yang sangat diperibadikan dijana secara besar-besaran

Penggodaman Automatik

Sistem AI mencari kelemahan lebih pantas daripada penggodam manusia

Perisian Hasad Adaptif

Perisian hasad yang mengubah diri sendiri untuk mengelak pengesanan

Pelaku jahat boleh menggunakan AI untuk operasi disinformasi dan pengaruh berskala besar, penipuan, dan penipuan.

— Laporan Ditugaskan Kerajaan U.K.

Pusat Keselamatan AI mengenal pasti penyalahgunaan AI sebagai kebimbangan utama, dengan senario seperti sistem AI digunakan oleh penjenayah untuk melakukan penipuan dan serangan siber berskala besar.

Kelajuan, skala, dan kecanggihan yang dibawa AI boleh membanjiri pertahanan tradisional – bayangkan ribuan panggilan penipuan dijana AI atau video deepfake yang menyasarkan keselamatan syarikat dalam satu hari.

Ancaman Baru: AI digunakan untuk memudahkan kecurian identiti, gangguan, dan penciptaan kandungan berbahaya seperti pornografi deepfake tanpa persetujuan atau propaganda untuk kumpulan ekstremis.

Apabila alat AI menjadi lebih mudah diakses, halangan untuk melakukan aktiviti jahat ini menjadi lebih rendah, berpotensi menyebabkan peningkatan jenayah berasaskan AI.

Ini memerlukan pendekatan baru dalam keselamatan siber dan penguatkuasaan undang-undang, seperti sistem AI yang boleh mengesan deepfake atau tingkah laku luar biasa dan rangka kerja undang-undang yang dikemas kini untuk memegang pesalah bertanggungjawab. Intinya, kita mesti menjangkakan bahawa apa sahaja keupayaan yang AI berikan kepada pihak baik, ia juga mungkin diberikan kepada penjenayah – dan bersiap sedia menghadapinya.

Penyalahgunaan Jenayah, Penipuan, dan Ancaman Keselamatan dalam AI
Penyalahgunaan Jenayah, Penipuan, dan Ancaman Keselamatan dalam AI

Militarisasi dan Senjata Autonomi

Mungkin risiko paling menakutkan AI muncul dalam konteks peperangan dan keselamatan negara. AI sedang pantas diintegrasikan ke dalam sistem ketenteraan, menimbulkan prospek senjata autonomi ("robot pembunuh") dan pembuatan keputusan berpandukan AI dalam pertempuran.

Teknologi ini boleh bertindak lebih pantas daripada manusia, tetapi menghilangkan kawalan manusia dari penggunaan kekuatan mematikan penuh dengan bahaya. Ada risiko bahawa senjata yang dikawal AI mungkin memilih sasaran yang salah atau meningkatkan konflik dengan cara yang tidak dijangka.

Keprihatinan Antarabangsa: Persenjataan AI untuk kegunaan ketenteraan dikenalpasti sebagai ancaman yang semakin meningkat oleh pemerhati antarabangsa.

Kesilapan Pemilihan Sasaran

Senjata AI mungkin salah mengenal pasti orang awam sebagai pejuang

  • Pengesanan positif palsu
  • Kemalangan orang awam

Peningkatan Konflik

Sistem autonomi mungkin meningkatkan situasi melebihi niat manusia

  • Kitaran tindak balas pantas
  • Peningkatan tidak terkawal

Jika negara berlumba-lumba melengkapi senjata mereka dengan senjata pintar, ia boleh mencetuskan perlumbaan senjata yang mengacaukan kestabilan. Selain itu, AI boleh digunakan dalam peperangan siber untuk menyerang infrastruktur kritikal secara autonomi atau menyebarkan propaganda, mengaburkan garis antara keamanan dan konflik.

Pembangunan AI dalam peperangan, jika tertumpu di tangan beberapa pihak, boleh dikenakan ke atas orang tanpa mereka mempunyai suara dalam cara ia digunakan, merosakkan keselamatan dan etika global.

— Pertubuhan Bangsa-Bangsa Bersatu

Sistem senjata autonomi juga menimbulkan dilema undang-undang dan moral – siapa yang bertanggungjawab jika dron AI tersilap membunuh orang awam? Bagaimana sistem sedemikian mematuhi undang-undang kemanusiaan antarabangsa?

Soalan yang belum terjawab ini telah membawa kepada seruan untuk larangan atau pengawalseliaan ketat terhadap senjata tertentu yang dibantu AI. Memastikan pengawasan manusia ke atas mana-mana AI yang boleh membuat keputusan hidup dan mati dilihat sebagai sangat penting. Tanpanya, risikonya bukan sahaja kesilapan tragis di medan perang tetapi juga penghakisan tanggungjawab manusia dalam peperangan.

Militarisasi dan Senjata Autonomi dalam AI
Militarisasi dan Senjata Autonomi dalam AI

Kekurangan Ketelusan dan Akauntabiliti

Kebanyakan sistem AI canggih hari ini beroperasi sebagai "kotak hitam" – logik dalaman mereka sering tidak jelas walaupun kepada penciptanya. Kekurangan ketelusan ini mencipta risiko bahawa keputusan AI tidak dapat dijelaskan atau dicabar, yang merupakan masalah serius dalam bidang seperti keadilan, kewangan, atau penjagaan kesihatan di mana penjelasan boleh menjadi keperluan undang-undang atau etika.

Jika AI menolak pinjaman seseorang, mendiagnosis penyakit, atau memutuskan siapa yang dibebaskan dari penjara, kita secara semula jadi ingin tahu mengapa. Dengan sesetengah model AI (terutamanya rangkaian neural yang kompleks), memberikan rasional yang jelas adalah sukar.

Keputusan Undang-Undang

Parol, hukuman, dan keputusan undang-undang dibuat oleh sistem AI yang tidak jelas

Perkhidmatan Kewangan

Kelulusan pinjaman dan keputusan kredit tanpa penjelasan jelas

Penjagaan Kesihatan

Diagnosis perubatan dan cadangan rawatan dari AI yang tidak dapat dijelaskan

Kekurangan ketelusan juga boleh merosakkan kemungkinan mencabar keputusan berdasarkan hasil yang dihasilkan oleh sistem AI dengan berkesan, dan mungkin melanggar hak untuk perbicaraan yang adil dan remedi yang berkesan.

— UNESCO

Dengan kata lain, jika pengguna atau pengawal selia tidak dapat memahami bagaimana AI membuat keputusan, hampir mustahil untuk memegang sesiapa bertanggungjawab atas kesilapan atau bias yang timbul.

Kekurangan Akauntabiliti: Syarikat mungkin mengelak tanggungjawab dengan menyalahkan "algoritma," dan individu yang terjejas mungkin tidak mempunyai jalan penyelesaian.

Untuk mengatasi ini, pakar mengesyorkan teknik AI yang boleh dijelaskan, audit yang ketat, dan keperluan pengawalseliaan supaya keputusan AI boleh dijejaki kepada pihak berkuasa manusia.

Malahan, garis panduan etika global menegaskan bahawa "sentiasa harus mungkin untuk mengaitkan tanggungjawab etika dan undang-undang" bagi tingkah laku sistem AI kepada seseorang atau organisasi. Manusia mesti kekal bertanggungjawab sepenuhnya, dan AI harus membantu bukan menggantikan pertimbangan manusia dalam perkara sensitif. Jika tidak, kita berisiko mencipta dunia di mana keputusan penting dibuat oleh mesin yang tidak dapat difahami, yang merupakan resipi untuk ketidakadilan.

Kekurangan Ketelusan dan Akauntabiliti dalam Penggunaan AI di Tempat Kerja
Kekurangan Ketelusan dan Akauntabiliti dalam Penggunaan AI di Tempat Kerja

Penyatuan Kuasa dan Ketidaksamaan

Revolusi AI tidak berlaku secara sama rata di seluruh dunia – sejumlah kecil syarikat dan negara menguasai pembangunan AI canggih, yang membawa risiko tersendiri.

Model AI termaju memerlukan data, bakat, dan sumber pengkomputeran yang sangat besar yang hanya dimiliki oleh gergasi teknologi (dan kerajaan yang dibiayai dengan baik) pada masa ini.

Ini telah membawa kepada rantaian bekalan yang sangat tertumpu, tunggal, dan bersepadu secara global yang memihak kepada beberapa syarikat dan negara.

— Forum Ekonomi Dunia

Monopoli Data

Set data besar yang dikawal oleh beberapa entiti

Sumber Pengkomputeran

Infrastruktur mahal yang hanya boleh diakses oleh gergasi teknologi

Penyatuan Bakat

Penyelidik AI terkemuka tertumpu dalam beberapa organisasi

Penyatuan kuasa AI sedemikian boleh diterjemahkan kepada pengawalan monopoli ke atas teknologi AI, mengehadkan persaingan dan pilihan pengguna. Ia juga meningkatkan bahaya bahawa keutamaan beberapa syarikat atau negara tersebut akan membentuk AI dengan cara yang tidak mengambil kira kepentingan awam yang lebih luas.

Amaran PBB: Terdapat bahaya bahawa teknologi AI boleh dikenakan ke atas orang tanpa mereka mempunyai suara dalam cara ia digunakan, apabila pembangunan tertumpu kepada segelintir yang berkuasa.

Ketidakseimbangan ini boleh memburukkan ketidaksamaan global: negara dan firma kaya melangkah jauh dengan memanfaatkan AI, manakala komuniti miskin kekurangan akses kepada alat terkini dan mengalami kehilangan pekerjaan tanpa menikmati manfaat AI.

Selain itu, industri AI yang tertumpu mungkin menghalang inovasi (jika pendatang baru tidak dapat bersaing dengan sumber yang dimiliki pemain lama) dan menimbulkan risiko keselamatan (jika infrastruktur AI kritikal dikawal oleh hanya beberapa entiti, ia menjadi titik kegagalan atau manipulasi tunggal).

Menangani risiko ini memerlukan kerjasama antarabangsa dan mungkin peraturan baru untuk mendemokrasikan pembangunan AI – contohnya, menyokong penyelidikan terbuka, memastikan akses adil kepada data dan pengkomputeran, dan merangka dasar (seperti Akta AI EU yang dicadangkan) untuk mengelakkan amalan penyalahgunaan oleh "penjaga pintu AI." Lanskap AI yang lebih inklusif akan membantu memastikan manfaat AI dikongsi secara global, bukannya memperlebar jurang antara yang berkemampuan teknologi dan yang tidak.

Penyatuan Kuasa dan Ketidaksamaan
Penyatuan Kuasa dan Ketidaksamaan

Impak Alam Sekitar AI

Sering diabaikan dalam perbincangan risiko AI adalah jejak alam sekitarnya. Pembangunan AI, terutamanya latihan model pembelajaran mesin besar, menggunakan sejumlah besar elektrik dan kuasa pengkomputeran.

Pusat data yang dipenuhi dengan ribuan pelayan yang memerlukan tenaga tinggi diperlukan untuk memproses aliran data yang dipelajari oleh sistem AI. Ini bermakna AI secara tidak langsung menyumbang kepada emisi karbon dan perubahan iklim.

Statistik Membimbangkan: Laporan agensi Pertubuhan Bangsa-Bangsa Bersatu baru-baru ini mendapati emisi karbon tidak langsung dari empat syarikat teknologi terkemuka yang fokus pada AI meningkat purata 150% dari 2020 hingga 2023, sebahagian besarnya disebabkan oleh keperluan tenaga pusat data AI.
Peningkatan Emisi Karbon (2020-2023) 150%

Dengan pelaburan dalam AI yang meningkat, emisi dari menjalankan model AI dijangka meningkat dengan mendadak – laporan meramalkan bahawa sistem AI teratas boleh mengeluarkan lebih 100 juta tan CO₂ setahun secara kolektif, memberi tekanan besar pada infrastruktur tenaga.

Untuk memberi perspektif, pusat data yang menyokong AI meningkatkan penggunaan elektrik "empat kali lebih pantas daripada peningkatan keseluruhan penggunaan elektrik".

Penggunaan Tenaga

Penggunaan elektrik besar untuk latihan dan menjalankan model AI

Penggunaan Air

Penggunaan air yang signifikan untuk menyejukkan pusat data

Sisa Elektronik

Kemas kini perkakasan menghasilkan aliran sisa elektronik

Selain emisi karbon, AI juga boleh menggunakan banyak air untuk penyejukan dan menghasilkan sisa elektronik apabila perkakasan dinaik taraf dengan cepat. Jika tidak dikawal, impak alam sekitar AI boleh merosakkan usaha kelestarian global.

Risiko ini menuntut AI menjadi lebih cekap tenaga dan menggunakan sumber tenaga yang lebih bersih. Penyelidik sedang membangunkan teknik AI hijau untuk mengurangkan penggunaan tenaga, dan beberapa syarikat telah berjanji untuk mengimbangi kos karbon AI. Walau bagaimanapun, ia kekal sebagai kebimbangan mendesak bahawa perlumbaan ke arah AI boleh membawa harga alam sekitar yang tinggi. Mengimbangi kemajuan teknologi dengan tanggungjawab ekologi adalah cabaran lain yang mesti dihadapi masyarakat semasa kita mengintegrasikan AI di mana-mana.

Impak Alam Sekitar AI
Impak Alam Sekitar AI

Risiko Eksistensial dan Jangka Panjang

Selain risiko segera, sesetengah pakar memberi amaran tentang risiko jangka panjang dan spekulatif dari AI – termasuk kemungkinan AI maju yang berkembang melebihi kawalan manusia. Walaupun sistem AI hari ini terhad dalam keupayaan, penyelidik sedang aktif berusaha ke arah AI umum yang berpotensi mengatasi manusia dalam banyak bidang.

Ini menimbulkan persoalan kompleks: jika AI menjadi jauh lebih pintar atau autonomi, bolehkah ia bertindak dengan cara yang mengancam kewujudan manusia? Walaupun kedengaran seperti fiksyen sains, tokoh terkemuka dalam komuniti teknologi telah menyuarakan kebimbangan tentang senario "AI liar", dan kerajaan mengambil perbincangan ini dengan serius.

Tindak Balas Kerajaan: Pada 2023, UK menganjurkan Sidang Kemuncak Keselamatan AI global untuk menangani risiko AI hadapan, menunjukkan keprihatinan institusi yang serius tentang keselamatan AI jangka panjang.

Pakar mempunyai pandangan berbeza tentang risiko manusia kehilangan kawalan ke atas AI dengan cara yang boleh mengakibatkan hasil bencana.

— Laporan Keselamatan AI Antarabangsa

Kesepakatan saintifik tidak seragam – sesetengah percaya AI super-pintar masih berdekad lagi atau boleh dikekalkan sejajar dengan nilai manusia, manakala yang lain melihat kemungkinan kecil tetapi bukan sifar bagi hasil bencana.

Potensi Senario Risiko Eksistensial

  • AI mengejar matlamat yang tidak selari dengan nilai manusia
  • Peningkatan keupayaan AI yang pesat dan tidak terkawal
  • Hilangnya agensi manusia dalam pembuatan keputusan kritikal
  • Sistem AI mengoptimumkan untuk objektif berbahaya

Langkah Keselamatan Jangka Panjang

  • Penyelidikan penjajaran AI memastikan matlamat serasi
  • Perjanjian antarabangsa mengenai penyelidikan AI berisiko tinggi
  • Memastikan pengawasan manusia semasa AI menjadi lebih berupaya
  • Menubuhkan rangka kerja tadbir urus AI global

Intinya, terdapat pengakuan bahawa risiko eksistensial dari AI, walaupun jauh, tidak boleh diabaikan sepenuhnya. Hasil sedemikian mungkin melibatkan AI yang mengejar matlamatnya sehingga membahayakan kesejahteraan manusia (contoh klasik adalah AI yang, jika diprogram salah, memutuskan untuk melakukan sesuatu yang berbahaya secara besar-besaran kerana kekurangan akal sehat atau batasan moral).

Walaupun tiada AI hari ini mempunyai agensi setakat itu, kelajuan kemajuan AI adalah pantas dan tidak dapat diramalkan, yang merupakan faktor risiko tersendiri.

Mempersiapkan risiko jangka panjang bermakna melabur dalam penyelidikan penjajaran AI (memastikan matlamat AI kekal serasi dengan nilai manusia), menubuhkan perjanjian antarabangsa mengenai penyelidikan AI berisiko tinggi (seperti perjanjian senjata nuklear atau biologi), dan mengekalkan pengawasan manusia semasa sistem AI menjadi lebih berupaya.

Masa depan AI memegang janji besar, tetapi juga ketidakpastian – dan kebijaksanaan menghendaki kita mempertimbangkan risiko berimpak tinggi walaupun dengan kebarangkalian rendah dalam perancangan jangka panjang kita.

Risiko Eksistensial dan Jangka Panjang dalam AI
Risiko Eksistensial dan Jangka Panjang dalam AI

Mengemudi Masa Depan AI dengan Bertanggungjawab

AI sering dibandingkan dengan enjin yang kuat yang boleh memacu kemajuan manusia – tetapi tanpa brek dan stereng, enjin itu boleh tersasar. Seperti yang telah kita lihat, risiko menggunakan AI adalah berbilang aspek: dari isu segera seperti algoritma berat sebelah, berita palsu, pencerobohan privasi, dan pergolakan pekerjaan, hingga cabaran masyarakat yang lebih luas seperti ancaman keselamatan, pembuatan keputusan "kotak hitam," monopoli Gergasi Teknologi, tekanan alam sekitar, dan bahkan bayangan jauh kehilangan kawalan kepada AI super-pintar.

Nota Penting: Risiko ini tidak bermakna kita harus menghentikan pembangunan AI; sebaliknya, ia menekankan keperluan mendesak untuk tadbir urus AI yang bertanggungjawab dan amalan etika.

Kerajaan, organisasi antarabangsa, pemimpin industri, dan penyelidik semakin bekerjasama untuk menangani kebimbangan ini – contohnya, melalui rangka kerja seperti:

  • Rangka Kerja Pengurusan Risiko AI NIST AS (untuk meningkatkan kebolehpercayaan AI)
  • Cadangan Etika AI UNESCO global
  • Akta AI Kesatuan Eropah

Usaha sedemikian bertujuan untuk memaksimumkan manfaat AI sambil meminimumkan kesan negatifnya, memastikan AI berkhidmat kepada kemanusiaan dan bukan sebaliknya.

Jalan ke Hadapan

Memahami risiko AI adalah langkah pertama untuk menguruskannya. Dengan kekal maklum dan terlibat dalam cara AI dibangunkan dan digunakan, kita boleh membantu mengemudi teknologi transformatif ini ke arah yang selamat, adil, dan bermanfaat untuk semua.

Terokai lebih banyak artikel berkaitan
135 artikel
Rosie Ha adalah penulis di Inviai, yang pakar berkongsi pengetahuan dan penyelesaian mengenai kecerdasan buatan. Dengan pengalaman dalam penyelidikan dan aplikasi AI dalam pelbagai bidang seperti perniagaan, penciptaan kandungan, dan automasi, Rosie Ha akan menyampaikan artikel yang mudah difahami, praktikal dan memberi inspirasi. Misi Rosie Ha adalah untuk membantu semua orang memanfaatkan AI dengan berkesan bagi meningkatkan produktiviti dan mengembangkan kreativiti.

Komen 0

Tinggalkan Komen

Belum ada komen. Jadi yang pertama memberi komen!

Cari