Kecerdasan Buatan (AI) merujuk kepada sistem komputer yang meniru kecerdasan manusia – contohnya, program yang boleh mengenal pasti imej, memahami bahasa, atau membuat keputusan. Dalam kehidupan seharian, AI menggerakkan alat seperti pembantu suara pada telefon pintar, sistem cadangan di media sosial, dan juga chatbot canggih yang menulis teks.

AI berpotensi untuk meningkatkan banyak bidang dengan ketara, tetapi ia juga menimbulkan banyak kebimbangan.

Jadi, adakah AI berbahaya? Artikel ini akan meneroka kedua-dua sisi: manfaat sebenar yang dibawa AI dan bahaya yang diketengahkan oleh pakar.

Manfaat AI dalam Dunia Sebenar

Imej: Gambaran mesra robot dan seorang manusia bekerja bersama melambangkan AI membantu manusia. AI sudahpun disepadukan dalam banyak aplikasi yang berguna.

Sebagai contoh, UNESCO menyatakan AI “telah mencipta banyak peluang” di seluruh dunia – daripada diagnosis perubatan yang lebih pantas kepada sambungan yang lebih baik melalui media sosial dan automasi tugas kerja yang membosankan.

Kesatuan Eropah juga menekankan bahawa “AI yang boleh dipercayai boleh membawa banyak manfaat” seperti penjagaan kesihatan yang lebih baikpengangkutan yang lebih selamat, dan industri serta penggunaan tenaga yang lebih cekap. Dalam bidang perubatan, Pertubuhan Kesihatan Sedunia melaporkan AI digunakan untuk diagnosis, pembangunan ubat dan tindak balas wabak, menggesa negara-negara untuk mempromosikan inovasi ini untuk semua.

Ahli ekonomi juga membandingkan penyebaran pesat AI dengan revolusi teknologi terdahulu.

Sebagai contoh, kerajaan AS menekankan bahawa “AI mempunyai potensi luar biasa untuk janji dan bahaya,” bermakna kita harus memanfaatkan kekuasaannya untuk menyelesaikan masalah seperti perubahan iklim atau penyakit, sambil juga berwaspada terhadap risiko.

Manfaat utama AI termasuk:

  • Penjagaan kesihatan yang dipertingkatkan: Sistem AI boleh menganalisis sinar-X, MRI dan data pesakit lebih pantas daripada manusia, membantu pengesanan awal penyakit dan rawatan yang diperibadikan. Contohnya, pengimejan dibantu AI boleh mengesan tumor yang mungkin terlepas pandang oleh doktor.
  • Kecekapan yang lebih tinggi: Proses automatik di kilang, pejabat dan perkhidmatan meningkatkan produktiviti. Seperti yang dinyatakan oleh EU, automasi berasaskan AI membawa kepada “pengilangan yang lebih cekap” dan grid tenaga yang lebih pintar.
    Robot dan perisian mengendalikan tugas berulang supaya manusia boleh menumpukan perhatian pada kerja kreatif atau kompleks.
  • Pengangkutan dan perkhidmatan yang lebih selamat: Teknologi kereta pandu sendiri dan AI pengurusan trafik bertujuan mengurangkan kemalangan dan kesesakan. AI pintar juga boleh meningkatkan sistem amaran bencana dan mengoptimumkan logistik, menjadikan perjalanan dan penghantaran lebih selamat.
  • Bantuan saintifik dan alam sekitar: Penyelidik menggunakan AI untuk mengira model iklim dan data genetik. Ini membantu menangani isu besar seperti perubahan iklim: UNESCO melaporkan bahawa walaupun perubahan kecil dalam reka bentuk AI boleh mengurangkan penggunaan tenaga dengan ketara, menjadikannya lebih lestari sebagai alat iklim.
  • Pendidikan dan aksesibiliti: Tutor berkuasa AI boleh memperibadikan pembelajaran untuk setiap pelajar, dan alat pengecaman suara atau terjemahan membantu golongan kurang upaya. Britannica menyatakan AI juga “membantu kumpulan terpinggir dengan menawarkan aksesibiliti” (contohnya pembantu bacaan untuk orang kurang penglihatan).

Contoh-contoh ini menunjukkan bahawa AI bukan sekadar fiksyen sains – ia sudah memberikan nilai sebenar hari ini.

Manfaat AI dalam Dunia Sebenar

Risiko dan Bahaya Potensi AI

Imej: Seni jalanan perkataan “Robot” memberi amaran tentang kesan tidak diketahui AI. Walaupun menjanjikan, ramai pakar memberi amaran bahawa AI boleh berbahaya jika disalahgunakan atau dibiarkan tanpa kawalan. Satu kebimbangan utama ialah bias dan diskriminasi. Kerana AI belajar daripada data sedia ada, ia boleh mewarisi prejudis manusia.

UNESCO memberi amaran bahawa tanpa etika yang ketat, AI “berisiko mengulangi bias dan diskriminasi dunia sebenar, memburukkan perpecahan dan mengancam hak asasi manusia serta kebebasan asas”. Kajian menunjukkan pengecaman wajah sering salah mengenal pasti wanita atau orang berkulit berwarna, dan algoritma pengambilan pekerja boleh memihak kepada jantina tertentu.

Britannica juga menyatakan AI boleh “menyakiti minoriti kaum dengan mengulangi dan memburukkan lagi perkauman”.

Bahaya lain termasuk:

  • Privasi dan pengawasan: Sistem AI sering memerlukan sejumlah besar data peribadi (siaran media sosial, rekod kesihatan, dan lain-lain). Ini meningkatkan risiko penyalahgunaan. Jika kerajaan atau syarikat menggunakan AI untuk menganalisis data anda tanpa kebenaran, ia boleh membawa kepada pengawasan yang melampau.

    Britannica memberi amaran tentang “risiko privasi yang berbahaya” daripada AI. Contohnya, penggunaan kontroversi AI yang dipanggil penilaian kredit sosial – di mana warganegara dinilai oleh algoritma – telah diharamkan oleh EU sebagai amalan yang “tidak boleh diterima”.
    Malahan chatbot terkenal juga menimbulkan kebimbangan: pada 2023, Itali menyekat sementara ChatGPT kerana isu privasi data.

  • Maklumat palsu dan deepfake: AI boleh menghasilkan teks, imej atau video palsu yang realistik. Ini memudahkan penciptaan deepfake – video selebriti palsu atau laporan berita palsu.

    Britannica menunjukkan AI boleh menyebarkan “maklumat palsu yang berpolitik, malah berbahaya”. Pakar memberi amaran bahawa palsu sedemikian boleh digunakan untuk memanipulasi pilihan raya atau pendapat awam.

    Dalam satu kejadian, imej AI yang menunjukkan pemimpin dunia berkongsi tajuk berita palsu menjadi tular sebelum disangkal. Saintis menyatakan tanpa kawal selia, maklumat palsu berasaskan AI boleh meningkat (contohnya, ucapan palsu atau imej yang diubah suai yang tiada undang-undang sedia ada mampu kawal).

  • Hilang pekerjaan dan gangguan ekonomi: Dengan mengautomasikan tugas, AI akan mengubah tempat kerja. Tabung Kewangan Antarabangsa melaporkan kira-kira 40% pekerjaan di seluruh dunia (dan 60% di negara maju) terdedah kepada automasi AI. Ini termasuk bukan sahaja kerja kilang tetapi juga pekerjaan kelas pertengahan seperti perakaunan atau penulisan.
    Walaupun AI boleh meningkatkan produktiviti (meningkatkan gaji dalam jangka panjang), ramai pekerja mungkin memerlukan latihan baru atau menghadapi pengangguran dalam jangka pendek.
    Ketua teknologi mengakui kebimbangan ini: CEO Microsoft sendiri berkata AI mungkin menggantikan profesional mahir secara tiba-tiba.

  • Keselamatan dan penggunaan jahat: Seperti mana-mana teknologi, AI boleh digunakan untuk tujuan jahat. Penjenayah siber sudah menggunakan AI untuk mencipta emel phishing yang meyakinkan atau mengimbas sistem mencari kelemahan.

    Pakar ketenteraan bimbang tentang senjata autonomi: dron atau robot yang memilih sasaran tanpa kelulusan manusia.
    Laporan terkini oleh penyelidik AI memberi amaran jelas bahawa kita kekurangan institusi untuk menghentikan “pelaku tidak bertanggungjawab yang mungkin menggunakan atau mengejar keupayaan dengan cara berbahaya”, seperti sistem serangan autonomi.

    Dengan kata lain, sistem AI yang mempunyai kawalan fizikal (seperti senjata) boleh menjadi sangat berbahaya jika ia rosak atau diprogramkan dengan niat jahat.

  • Kehilangan kawalan manusia: Sesetengah pemikir menunjukkan bahawa jika AI menjadi jauh lebih berkuasa daripada hari ini, ia mungkin bertindak dengan cara yang tidak dapat diramalkan. Walaupun AI semasa tidak sedar atau mempunyai kesedaran diri, AI am (AGI) pada masa depan berpotensi mengejar matlamat yang tidak selari dengan nilai manusia.

    Saintis AI terkemuka baru-baru ini memberi amaran bahawa “sistem AI generalis yang sangat berkuasa” mungkin muncul dalam masa terdekat kecuali kita bersedia.

    Pemenang Hadiah Nobel Geoffrey Hinton dan pakar lain malah menggambarkan risiko meningkat bahawa AI boleh membahayakan manusia jika AI maju tidak diselaraskan dengan keperluan kita. Walaupun risiko ini tidak pasti, ia telah mendorong seruan berhati-hati yang meluas.

  • Impak tenaga dan alam sekitar: Latihan dan pengoperasian model AI besar menggunakan banyak elektrik. UNESCO melaporkan penggunaan tenaga tahunan AI generatif kini setanding dengan sebuah negara kecil di Afrika – dan ia berkembang dengan pesat.

    Ini boleh memburukkan perubahan iklim melainkan kita menggunakan kaedah yang lebih hijau.

    Berita baiknya, penyelidik sedang mencari penyelesaian: satu kajian UNESCO menunjukkan penggunaan model yang lebih kecil dan cekap untuk tugas tertentu boleh mengurangkan penggunaan tenaga AI sebanyak 90% tanpa mengorbankan ketepatan.

Kesimpulannya, bahaya sebenar AI hari ini kebanyakannya datang daripada cara manusia menggunakannya. Jika AI diurus dengan teliti, manfaatnya (kesihatan, kemudahan, keselamatan) sangat besar.

Tetapi jika dibiarkan tanpa kawalan, AI boleh membolehkan bias, jenayah, dan kemalangan.

Benang merah dalam bahaya ini ialah kekurangan kawalan atau pengawasan: alat AI adalah berkuasa dan pantas, jadi kesilapan atau penyalahgunaan boleh berlaku secara meluas kecuali kita campur tangan.

Risiko dan Bahaya Potensi AI

Apa Kata Pakar dan Pegawai

Memandangkan isu-isu ini, ramai pemimpin dan penyelidik telah bersuara. Sebuah konsensus besar pakar AI telah terbentuk dalam beberapa tahun kebelakangan ini.

Pada 2024, sekumpulan 25 saintis AI terkemuka (dari Oxford, Berkeley, pemenang Anugerah Turing, dan lain-lain) menerbitkan kenyataan konsensus yang menggesa tindakan segera.

Mereka memberi amaran kepada kerajaan dunia supaya bersiap sedia sekarang: “jika kita memandang rendah risiko AI, akibatnya boleh menjadi bencana,” dan mereka menggesa pembiayaan penyelidikan keselamatan AI serta penubuhan badan pengawalseliaan untuk memantau AI berkuasa.

Mereka menekankan bahawa pembangunan AI telah berlumba-lumba “dengan keselamatan sebagai perkara kedua,” dan kita kini kekurangan institusi untuk menghalang aplikasi liar.

Pemimpin teknologi turut mengulangi amaran ini. CEO OpenAI, Sam Altman – syarikat yang mencipta ChatGPT – memberitahu The New York Times bahawa membina AI maju adalah seperti “Projek Manhattan” untuk era digital.

Beliau mengakui alat yang sama yang boleh menulis esei atau kod boleh juga menyebabkan “penyalahgunaan, kemalangan besar dan gangguan sosial” jika tidak dikendalikan dengan berhati-hati.

Pada akhir 2023, lebih 1,000 profesional AI (termasuk Elon Musk, pengasas bersama Apple Steve Wozniak, dan ramai penyelidik AI) menandatangani surat terbuka yang menyeru penangguhan dalam latihan model AI generasi akan datang.

Mereka memberi amaran bahawa kita berada dalam “perlumbaan yang tidak terkawal” untuk membina AI lebih berkuasa yang bahkan penciptanya “tidak dapat memahami, meramalkan, atau mengawalnya dengan boleh dipercayai”.

Dalam forum awam, pakar menekankan risiko tertentu. CEO Google DeepMind, Demis Hassabis, berhujah bahawa ancaman terbesar bukanlah pengangguran tetapi penyalahgunaan: penjenayah siber atau negara liar yang menggunakan AI untuk membahayakan masyarakat.

Beliau menunjukkan bahawa tidak lama lagi AI boleh menyamai atau melebihi kecerdasan manusia, dan “pelaku jahat boleh menggunakan teknologi yang sama untuk tujuan berbahaya”.

Dengan kata lain, walaupun kita menguruskan kehilangan pekerjaan, kita mesti menghalang alat AI daripada jatuh ke tangan yang salah.

Kerajaan dan badan antarabangsa mengambil perhatian. Rumah Putih (AS) mengeluarkan Perintah Eksekutif pada 2023 yang menyatakan AI “mempunyai potensi luar biasa untuk janji dan bahaya” dan menyeru “penggunaan AI yang bertanggungjawab” melalui usaha seluruh masyarakat untuk mengurangkan risiko besar yang ada.

Kesatuan Eropah meluluskan Akta AI pertama di dunia (berkuat kuasa 2024), mengharamkan amalan berbahaya seperti penilaian sosial kerajaan dan mewajibkan ujian ketat untuk AI berisiko tinggi (dalam kesihatan, penguatkuasaan undang-undang, dan lain-lain).

UNESCO (agensi PBB untuk pendidikan dan budaya) menerbitkan cadangan etika AI global yang menggesa keadilan, ketelusan dan perlindungan hak asasi manusia dalam AI.

Organisasi dasar sains seperti NIST (Institut Piawaian Kebangsaan AS) juga mengeluarkan Rangka Kerja Pengurusan Risiko AI untuk membimbing syarikat membina AI yang boleh dipercayai.

Semua suara ini bersetuju pada satu perkara: AI tidak akan berhenti dengan sendirinya. Kita perlu membangunkan langkah keselamatan. Ini melibatkan pembaikan teknikal (audit bias, ujian keselamatan) dan undang-undang atau badan pengawasan baru.

Sebagai contoh, penggubal undang-undang di seluruh dunia sedang mempertimbangkan lembaga keselamatan AI, serupa dengan yang digunakan untuk teknologi nuklear.

Matlamatnya bukan untuk menghentikan inovasi, tetapi memastikan ia berlaku di bawah garis panduan yang teliti.

Apa Kata Pakar dan Pegawai

Langkah Keselamatan dan Pengawalseliaan

Nasib baik, banyak penyelesaian sudah dilaksanakan. Idea utama ialah “keselamatan AI melalui reka bentuk”. Syarikat semakin banyak membina peraturan etika dalam pembangunan AI.

Contohnya, makmal AI menguji model untuk bias sebelum dikeluarkan dan menambah penapis kandungan untuk mengelakkan output yang eksplisit atau palsu. Kerajaan dan institusi sedang mengkodifikasikan ini.

Akta AI EU, contohnya, mengharamkan penggunaan berbahaya tertentu secara mutlak dan mengklasifikasikan penggunaan lain sebagai “berisiko tinggi” (tertakluk kepada audit).

Begitu juga, rangka kerja etika AI UNESCO menggesa langkah seperti audit keadilan, perlindungan keselamatan siber, dan proses aduan yang mudah diakses.

Dari segi praktikal, badan penetapan piawaian mengeluarkan garis panduan.

Rangka kerja NIST AS yang kami sebutkan menyediakan piawaian sukarela untuk organisasi menilai dan mengurangkan risiko AI.

Di peringkat antarabangsa, kumpulan seperti OECD dan PBB sedang mengusahakan prinsip AI (banyak negara telah menandatangani).

Malahan syarikat dan universiti membentuk institut keselamatan AI dan gabungan untuk menyelidik risiko jangka panjang.

Selain itu, banyak peraturan semasa menangani kemudaratan khusus.

Contohnya, undang-undang perlindungan pengguna sedang digunakan untuk AI.

Dokumen dalaman Meta mendedahkan chatbot AI menggoda kanak-kanak, yang menimbulkan kemarahan pengawal selia (alat Meta tidak dibenarkan di bawah undang-undang perlindungan kanak-kanak sedia ada).

Pihak berkuasa sedang berusaha mengemas kini undang-undang mengenai ucapan kebencian, hak cipta dan privasi untuk merangkumi kandungan yang dihasilkan AI.

Seorang pakar dari New Zealand menyatakan, banyak undang-undang semasa “tidak direka dengan AI generatif dalam fikiran,” jadi penggubal undang-undang sedang mengejar perkembangan.

Trend keseluruhan jelas: AI sedang dilayan seperti teknologi kegunaan berganda lain.

Seperti kita ada undang-undang lalu lintas untuk kereta atau piawaian keselamatan untuk bahan kimia, masyarakat mula mewujudkan pagar keselamatan untuk AI.

Ini termasuk: penyelidikan berterusan mengenai risiko AI, kerjasama awam-swasta dalam keselamatan, kempen pendidikan tentang deepfake, dan juga undian yang bertanya kepada rakyat berapa banyak autonomi yang harus diberikan kepada mesin.

>>>Ketahui lebih lanjut:

Adakah AI akan menggantikan manusia?

Adakah AI Berfikir Seperti Manusia?

Langkah Keselamatan dan Pengawalseliaan AI


Jadi, adakah AI berbahaya? Jawapannya bersifat kompleks. AI tidak semestinya jahat – ia adalah alat yang dicipta oleh manusia.

Dalam pelbagai bentuk praktikal hari ini, ia telah membawa manfaat besar kepada perubatan, pendidikan, industri dan lain-lain (seperti yang diketengahkan oleh organisasi seperti UNESCO dan EU).

Pada masa yang sama, hampir semua orang bersetuju AI boleh menjadi berbahaya jika kekuatannya disalahgunakan atau dibiarkan tanpa panduan.

Kebimbangan biasa termasuk pelanggaran privasi, bias, maklumat palsu, gangguan pekerjaan, dan risiko hipotesis kecerdasan super yang tidak terkawal.

Golongan muda yang belajar tentang AI harus memberi tumpuan kepada kedua-dua sisi. Adalah bijak untuk sedar bahaya sebenar: contohnya, jangan sesekali mempercayai AI secara membuta tuli atau berkongsi data peribadi tanpa berhati-hati.

Tetapi juga penting untuk melihat bahawa pakar dan kerajaan sedang berusaha aktif untuk menjadikan AI lebih selamat – dengan membangunkan undang-undang (seperti Akta AI EU), garis panduan (seperti cadangan etika UNESCO) dan teknologi (seperti pengesanan bias) untuk mengesan masalah lebih awal.

Ringkasnya, AI adalah seperti mana-mana teknologi berkuasa: ia boleh membawa manfaat besar apabila digunakan dengan bertanggungjawab, dan boleh mendatangkan mudarat jika disalahgunakan.

Konsensus di kalangan saintis dan pembuat dasar ialah kita tidak harus menakut-nakutkan atau mengabaikan AI, tetapi kekal maklum dan terlibat dalam membentuk masa depannya.

Dengan “pagar keselamatan” yang betul – pembangunan AI beretika, pengawalseliaan yang kukuh dan kesedaran awam – kita boleh mengemudi AI ke arah keselamatan dan memastikan ia memberi manfaat kepada manusia tanpa menjadi berbahaya.

Rujukan Luar
Artikel ini disusun dengan rujukan kepada sumber luar berikut: