Artikel ini akan membantu anda memahami dengan lebih baik isu keselamatan AI dan data, mari kita ketahui bersama INVIAI sekarang!

Kecerdasan Buatan (AI) sedang mengubah industri dan masyarakat, namun ia juga menimbulkan kebimbangan penting mengenai keselamatan data. Sistem AI moden dikuasakan oleh set data besar, termasuk maklumat peribadi dan organisasi yang sensitif. Jika data ini tidak dilindungi dengan secukupnya, ketepatan dan kebolehpercayaan hasil AI boleh terjejas.

Sebenarnya, keselamatan siber dianggap “prasyarat penting untuk keselamatan, ketahanan, privasi, keadilan, keberkesanan dan kebolehpercayaan sistem AI”. Ini bermakna melindungi data bukan sekadar isu IT – ia adalah asas untuk memastikan AI memberikan manfaat tanpa menimbulkan mudarat.

Apabila AI semakin diterapkan dalam operasi penting di seluruh dunia, organisasi mesti sentiasa berwaspada dalam melindungi data yang menjadi nadi sistem ini.

Kepentingan Keselamatan Data dalam Pembangunan AI

Kekuatan AI datang daripada data. Model pembelajaran mesin mempelajari corak dan membuat keputusan berdasarkan data yang digunakan untuk latihan. Oleh itu, keselamatan data adalah sangat penting dalam pembangunan dan pelaksanaan sistem AI. Jika penyerang dapat mengubah atau mencuri data, tingkah laku dan hasil AI mungkin menjadi tidak tepat atau tidak boleh dipercayai.

Strategi pengurusan data AI yang berjaya mesti memastikan data tidak dimanipulasi atau rosak pada mana-mana peringkat, bebas daripada kandungan berniat jahat atau tanpa kebenaran, dan tidak mengandungi anomali yang tidak disengajakan.

Secara ringkas, melindungi integriti dan kerahsiaan data sepanjang semua fasa kitaran hayat AI – dari reka bentuk dan latihan hingga pelaksanaan dan penyelenggaraan – adalah penting untuk AI yang boleh dipercayai. Mengabaikan keselamatan siber dalam mana-mana fasa ini boleh menjejaskan keselamatan keseluruhan sistem AI. Panduan rasmi daripada agensi keselamatan antarabangsa menekankan bahawa langkah keselamatan siber yang kukuh dan asas harus diterapkan pada semua set data yang digunakan dalam mereka bentuk, membangunkan, mengendalikan, dan mengemas kini model AI.

Pendek kata, tanpa keselamatan data yang kuat, kita tidak boleh mempercayai sistem AI untuk menjadi selamat atau tepat.

Kepentingan Keselamatan Data dalam Pembangunan AI

Cabaran Privasi Data dalam Era AI

Salah satu isu terbesar di persimpangan AI dan keselamatan data ialah privasi. Algoritma AI sering memerlukan sejumlah besar data peribadi atau sensitif – daripada tingkah laku dalam talian dan demografi hingga pengecam biometrik – untuk berfungsi dengan berkesan. Ini menimbulkan kebimbangan tentang bagaimana data tersebut dikumpul, digunakan, dan dilindungi. Penggunaan data tanpa kebenaran dan pengumpulan data secara tersembunyi telah menjadi cabaran yang meluas: sistem AI mungkin mengakses maklumat peribadi tanpa pengetahuan atau persetujuan penuh individu.

Sebagai contoh, beberapa perkhidmatan berkuasa AI mengikis data dari internet – kes kontroversi melibatkan sebuah syarikat pengecaman wajah yang mengumpul pangkalan data lebih 20 bilion imej yang diambil dari media sosial dan laman web tanpa kebenaran. Ini menyebabkan tindakan penguatkuasaan, dengan pihak berkuasa Eropah mengenakan denda besar dan larangan kerana melanggar undang-undang privasi. Insiden sebegini menonjolkan bahawa inovasi AI boleh dengan mudah melanggar garis etika dan undang-undang jika privasi data tidak dihormati.

Pengawal selia di seluruh dunia bertindak balas dengan menguatkuasakan undang-undang perlindungan data dalam konteks AI. Rangka kerja seperti Peraturan Perlindungan Data Umum Kesatuan Eropah (GDPR) sudah menetapkan syarat ketat tentang bagaimana data peribadi boleh diproses, memberi kesan kepada projek AI di seluruh dunia. Terdapat juga peraturan khusus AI yang bakal diperkenalkan – contohnya, Akta AI EU (dijangka berkuat kuasa menjelang 2025) akan mewajibkan sistem AI berisiko tinggi melaksanakan langkah untuk memastikan kualiti data, ketepatan, dan ketahanan keselamatan siber.

Organisasi antarabangsa turut menggemakan keutamaan ini: cadangan etika AI global UNESCO secara jelas merangkumi “Hak Privasi dan Perlindungan Data,” menegaskan bahawa privasi mesti dilindungi sepanjang kitaran hayat sistem AI dan rangka kerja perlindungan data yang mencukupi mesti disediakan. Ringkasnya, organisasi yang menggunakan AI mesti menavigasi landskap kompleks kebimbangan privasi dan peraturan, memastikan data individu dikendalikan secara telus dan selamat untuk mengekalkan kepercayaan awam.

Cabaran Privasi Data dalam Era AI

Ancaman terhadap Integriti Data dan Sistem AI

Melindungi AI bukan sahaja tentang menjaga data daripada kecurian – ia juga mengenai memastikan integriti data dan model daripada serangan canggih. Penyerang berniat jahat telah menemui cara untuk mengeksploitasi sistem AI dengan mensasarkan saluran data itu sendiri. Satu nasihat keselamatan siber bersama pada 2025 menyorot tiga bidang utama risiko keselamatan data khusus AI: rantai bekalan data yang terjejas, data yang diubah secara berniat jahat (“diracun”), dan pergeseran data. Berikut adalah pecahan ancaman utama ini dan lain-lain:

  • Serangan Racun Data: Dalam serangan racun, penyerang dengan sengaja menyuntik data palsu atau mengelirukan ke dalam set latihan sistem AI, merosakkan tingkah laku model. Oleh kerana model AI “belajar” daripada data latihan, data yang diracun boleh menyebabkan keputusan atau ramalan yang salah.
    Contohnya, jika penjenayah siber berjaya memasukkan sampel berniat jahat ke dalam data latihan penapis spam, AI mungkin mula mengklasifikasikan emel berbahaya yang mengandungi perisian hasad sebagai selamat. Contoh nyata ialah insiden chatbot Tay Microsoft pada 2016 – troll internet “meracun” chatbot itu dengan input yang menghina, menyebabkan Tay mempelajari tingkah laku toksik. Ini menunjukkan betapa cepatnya sistem AI boleh terganggu oleh data buruk jika tiada perlindungan.

    Racun juga boleh lebih halus: penyerang mungkin mengubah hanya sebahagian kecil dataset dengan cara yang sukar dikesan tetapi memihak kepada output model. Mengesan dan mencegah racun adalah cabaran besar; amalan terbaik termasuk menyemak sumber data dan menggunakan pengesanan anomali untuk mengenal pasti titik data mencurigakan sebelum ia mempengaruhi AI.

  • Input Adversarial (Serangan Pengelakan): Walaupun model AI telah dilatih dan dilaksanakan, penyerang boleh cuba menipu dengan memberikan input yang direka khas. Dalam serangan pengelakan, data input diubah sedikit supaya AI salah tafsir. Perubahan ini mungkin tidak dapat dilihat oleh manusia tetapi boleh mengubah output model sepenuhnya.
    Contoh klasik melibatkan sistem penglihatan komputer: penyelidik menunjukkan bahawa meletakkan beberapa pelekat kecil atau menambah sedikit cat pada tanda berhenti boleh menipu AI kereta pandu sendiri untuk “melihat”nya sebagai tanda had laju. Gambar di bawah menunjukkan bagaimana perubahan kecil yang nampak tidak penting kepada manusia boleh mengelirukan model AI sepenuhnya. Penyerang boleh menggunakan teknik serupa untuk memintas pengecaman wajah atau penapis kandungan dengan menambah gangguan tidak kelihatan pada imej atau teks. Contoh adversarial sebegini menonjolkan kelemahan asas AI – pengenalan coraknya boleh dieksploitasi dengan cara yang manusia tidak jangka.防

Perubahan kecil pada tanda berhenti (seperti pelekat atau tanda halus) boleh menipu sistem penglihatan AI untuk salah membaca – dalam satu eksperimen, tanda berhenti yang diubah suai sentiasa ditafsir sebagai tanda had laju. Ini menunjukkan bagaimana serangan adversarial boleh menipu AI dengan mengeksploitasi cara model mentafsir data.

  • Risiko Rantai Bekalan Data: Pembangun AI sering bergantung pada sumber data luaran atau pihak ketiga (contohnya set data yang dikikis dari web, data terbuka, atau pengumpul data). Ini mewujudkan kelemahan rantai bekalan – jika data sumber terjejas atau berasal dari asal yang tidak dipercayai, ia mungkin mengandungi ancaman tersembunyi.
    Contohnya, set data yang tersedia secara umum boleh sengaja diselitkan entri berniat jahat atau kesilapan halus yang kemudian menjejaskan model AI yang menggunakannya. Memastikan asal usul data (mengetahui dari mana data datang dan bahawa ia tidak diubah) adalah penting.

    Panduan bersama oleh agensi keselamatan menggesa pelaksanaan langkah seperti tandatangan digital dan pemeriksaan integriti untuk mengesahkan keaslian data semasa ia bergerak melalui saluran AI. Tanpa perlindungan sebegini, penyerang boleh mengubah rantai bekalan AI dengan mengubah data di hulu (contohnya, memanipulasi data latihan model yang dimuat turun dari repositori awam).

  • Pergeseran Data dan Kemerosotan Model: Tidak semua ancaman bersifat berniat jahat – ada yang berlaku secara semula jadi dari masa ke masa. Pergeseran data merujuk kepada fenomena di mana sifat statistik data berubah secara beransur-ansur, sehingga data yang ditemui sistem AI semasa operasi tidak lagi sepadan dengan data yang digunakan untuk latihan. Ini boleh menyebabkan ketepatan merosot atau tingkah laku tidak dijangka.
    Walaupun pergeseran data bukan serangan, ia menjadi kebimbangan keselamatan apabila model yang berprestasi rendah boleh dieksploitasi oleh penyerang. Contohnya, sistem pengesanan penipuan AI yang dilatih berdasarkan corak transaksi tahun lalu mungkin mula terlepas taktik penipuan baru tahun ini, terutamanya jika penjenayah menyesuaikan diri untuk mengelak model lama.

    Penyerang juga mungkin sengaja memperkenalkan corak baru (bentuk pergeseran konsep) untuk mengelirukan model. Melatih semula model secara berkala dengan data terkini dan memantau prestasi mereka adalah penting untuk mengurangkan pergeseran. Memastikan model sentiasa dikemas kini dan memeriksa output mereka secara berterusan memastikan mereka kekal tahan terhadap perubahan persekitaran dan sebarang cubaan mengeksploitasi pengetahuan lama.

  • Serangan Siber Tradisional terhadap Infrastruktur AI: Penting untuk diingat bahawa sistem AI berjalan pada perisian dan perkakasan standard, yang masih terdedah kepada ancaman siber konvensional. Penyerang mungkin mensasarkan pelayan, storan awan, atau pangkalan data yang menyimpan data latihan dan model AI.
    Pelanggaran ini boleh mendedahkan data sensitif atau membenarkan pengubahan sistem AI. Contohnya, pencerobohan data terhadap syarikat AI telah berlaku – dalam satu kes, senarai pelanggan dalaman sebuah syarikat pengecaman wajah bocor selepas penyerang mendapat akses, mendedahkan bahawa lebih 2,200 organisasi telah menggunakan perkhidmatan tersebut.

    Insiden sebegini menegaskan bahawa organisasi AI mesti mengamalkan langkah keselamatan yang kukuh (penyulitan, kawalan akses, keselamatan rangkaian) seperti mana-mana syarikat perisian lain. Selain itu, pencurian model atau pengekstrakan menjadi kebimbangan baru: penyerang mungkin mencuri model AI proprietari (melalui penggodaman atau dengan membuat pertanyaan kepada perkhidmatan AI awam untuk membalikkan kejuruteraan model). Model yang dicuri boleh disalahgunakan atau dianalisis untuk mencari kelemahan lanjut. Oleh itu, melindungi model AI (contohnya, dengan penyulitan semasa penyimpanan dan kawalan akses) adalah sama penting dengan melindungi data.

Kesimpulannya, sistem AI menghadapi campuran serangan unik yang berfokus pada data (racun, pengelakan adversarial, gangguan rantai bekalan) dan risiko siber tradisional (penggodaman, akses tanpa kebenaran). Ini memerlukan pendekatan keselamatan menyeluruh yang menangani integriti, kerahsiaan, dan ketersediaan data dan model AI pada setiap peringkat.

Seperti yang dinyatakan oleh Pusat Keselamatan Siber Nasional UK dan rakan-rakannya, sistem AI membawa “kelemahan keselamatan baru” dan keselamatan mesti menjadi keperluan utama sepanjang kitaran hayat AI, bukan perkara sampingan.

Ancaman terhadap Integriti Data dan Sistem AI

AI: Pedang Bermata Dua untuk Keselamatan

Walaupun AI membawa risiko keselamatan baru, ia juga merupakan alat yang berkuasa untuk meningkatkan keselamatan data apabila digunakan secara etika. Penting untuk mengenal pasti sifat dua hala ini. Di satu pihak, penjenayah siber menggunakan AI untuk memperhebatkan serangan mereka; di pihak lain, pembela menggunakan AI untuk mengukuhkan keselamatan siber.

  • AI di Tangan Penyerang: Kebangkitan AI generatif dan pembelajaran mesin maju telah menurunkan halangan untuk melaksanakan serangan siber canggih. Penyerang berniat jahat boleh menggunakan AI untuk mengautomasikan kempen phishing dan kejuruteraan sosial, menjadikan penipuan lebih meyakinkan dan sukar dikesan.
    Contohnya, AI generatif boleh menghasilkan emel phishing yang sangat diperibadikan atau mesej palsu yang meniru gaya penulisan individu, meningkatkan peluang mangsa tertipu. Chatbot AI juga boleh menjalankan perbualan masa nyata dengan sasaran sambil menyamar sebagai sokongan pelanggan atau rakan sekerja, cuba menipu pengguna untuk mendedahkan kata laluan atau maklumat kewangan.

    Satu lagi ancaman ialah deepfake – video atau klip audio sintetik yang dijana AI. Penyerang telah menggunakan audio deepfake untuk meniru suara CEO atau pegawai lain bagi mengesahkan pemindahan wang bank palsu dalam apa yang dikenali sebagai “phishing suara”. Begitu juga, video deepfake boleh digunakan untuk menyebarkan maklumat palsu atau ugutan. Skala AI bermakna serangan ini boleh dilakukan secara besar-besaran (dan kadang-kadang dengan tahap kepercayaan) yang tidak mungkin sebelum ini.

    Pakar keselamatan menyatakan bahawa AI telah menjadi senjata dalam arsenal penjenayah siber, digunakan untuk segala-galanya dari mengenal pasti kelemahan perisian hingga mengautomasikan penciptaan perisian hasad. Trend ini menuntut organisasi memperkukuh pertahanan dan mendidik pengguna, kerana “faktor manusia” (seperti terpedaya dengan emel phishing) sering menjadi titik lemah.

  • AI untuk Pertahanan dan Pengesanan: Nasib baik, keupayaan AI yang sama boleh meningkatkan keselamatan siber secara dramatik di pihak pertahanan. Alat keselamatan berkuasa AI boleh menganalisis jumlah trafik rangkaian dan log sistem yang besar untuk mengesan anomali yang mungkin menunjukkan pencerobohan siber.
    Dengan mempelajari apa itu tingkah laku “normal” dalam sistem, model pembelajaran mesin boleh menandakan corak luar biasa secara masa nyata – berpotensi menangkap penggodam ketika beraksi atau mengesan pelanggaran data semasa ia berlaku. Pengesanan anomali ini sangat berguna untuk mengenal pasti ancaman baru yang licik yang mungkin terlepas oleh pengesan berasaskan tandatangan.

    Contohnya, sistem AI boleh memantau corak log masuk pengguna atau akses data dalam syarikat dan memberi amaran kepada pasukan keselamatan jika mereka mengesan cubaan akses luar biasa atau pengguna memuat turun jumlah data yang luar biasa besar (yang boleh menandakan ancaman dalaman atau penggunaan kelayakan curi). AI juga digunakan dalam menapis spam dan kandungan berniat jahat, di mana ia belajar mengenal pasti emel phishing atau perisian hasad berdasarkan ciri-cirinya.

    Dalam bidang pengesanan penipuan, bank dan institusi kewangan menggunakan AI untuk menilai transaksi secara segera berdasarkan tingkah laku biasa pelanggan dan menyekat transaksi yang mencurigakan, mencegah penipuan secara masa nyata. Aplikasi pertahanan lain ialah menggunakan AI untuk pengurusan kelemahan – pembelajaran mesin boleh mengutamakan kelemahan perisian paling kritikal untuk diperbaiki dengan meramalkan yang mana paling mungkin dieksploitasi, membantu organisasi menampal sistem sebelum serangan berlaku.

    Penting untuk diketahui, AI tidak menggantikan pakar keselamatan manusia tetapi menyokong mereka, mengendalikan pemprosesan data berat dan pengecaman corak supaya penganalisis boleh menumpukan pada penyiasatan dan tindak balas. Sinergi antara alat AI dan kepakaran manusia ini menjadi asas strategi keselamatan siber moden.

Secara asasnya, AI meningkatkan landskap ancaman dan menawarkan cara baru untuk mengukuhkan pertahanan. Perlumbaan senjata ini bermakna organisasi mesti sentiasa mengikuti perkembangan AI di kedua-dua pihak. Yang menggembirakan, banyak penyedia keselamatan siber kini menggabungkan AI dalam produk mereka, dan kerajaan membiayai penyelidikan dalam pertahanan siber berasaskan AI.

Namun, kewaspadaan diperlukan: sama seperti mana-mana alat keselamatan, sistem pertahanan AI perlu dinilai dengan teliti untuk memastikan ia sendiri tidak tertipu oleh penyerang (contohnya, penyerang mungkin cuba memberi data mengelirukan kepada AI pertahanan supaya ia “butakan” terhadap serangan yang sedang berlaku – satu bentuk racun yang disasarkan pada sistem keselamatan). Oleh itu, penggunaan AI untuk keselamatan siber harus disertai dengan pengesahan dan pengawasan yang kukuh.

AI - Pedang Bermata Dua untuk Keselamatan

Amalan Terbaik untuk Melindungi Data AI

Memandangkan pelbagai ancaman, apa yang boleh dilakukan organisasi untuk melindungi AI dan data di sebaliknya? Pakar mengesyorkan pendekatan berlapis yang mengintegrasikan keselamatan dalam setiap langkah kitaran hayat sistem AI. Berikut adalah beberapa amalan terbaik yang dirumuskan daripada agensi keselamatan siber dan penyelidik yang dihormati:

  • Tadbir Urus Data dan Kawalan Akses: Mulakan dengan kawalan ketat terhadap siapa yang boleh mengakses data latihan AI, model, dan output sensitif. Gunakan pengesahan dan kebenaran yang kukuh untuk memastikan hanya kakitangan atau sistem yang dipercayai boleh mengubah data. Semua data (sama ada dalam keadaan rehat atau dalam transit) harus disulitkan untuk mengelakkan pemintasan atau kecurian.
    Log dan audit akses data penting untuk akauntabiliti – jika berlaku masalah, log boleh membantu mengesan punca. Juga, laksanakan prinsip hak istimewa minimum: setiap pengguna atau komponen hanya boleh mengakses data minimum yang diperlukan untuk fungsinya.

  • Pengesahan Data dan Asal Usul: Sebelum menggunakan mana-mana set data untuk latihan atau memasukkannya ke dalam AI, sahkan integritinya. Teknik seperti tandatangan digital dan jumlah semak boleh memastikan data tidak diubah sejak ia dikumpul. Menyimpan rekod asal usul data membantu membina kepercayaan – contohnya, utamakan data daripada sumber yang boleh dipercayai, disemak, atau rakan kongsi rasmi.
    Jika menggunakan data yang dikumpul secara orang ramai atau dikikis dari web, pertimbangkan untuk menyemaknya dengan pelbagai sumber (pendekatan “konsensus”) untuk mengesan anomali. Sesetengah organisasi menggunakan sandbox untuk data baru – data dianalisis secara berasingan untuk sebarang tanda amaran (seperti kod berniat jahat atau nilai luar biasa) sebelum dimasukkan ke dalam latihan.

  • Amalan Pembangunan AI yang Selamat: Ikuti amalan pengekodan dan pelaksanaan yang selamat khusus untuk AI. Ini bermakna menangani bukan sahaja kelemahan perisian biasa, tetapi juga yang khusus untuk AI. Contohnya, terapkan prinsip “privasi dari reka bentuk” dan “keselamatan dari reka bentuk”: bina model AI dan saluran data anda dengan perlindungan sejak awal, bukan menambahnya kemudian.
    Garis panduan UK/AS untuk pembangunan AI selamat mencadangkan menggunakan pemodelan ancaman semasa fasa reka bentuk untuk meramalkan bagaimana seseorang mungkin menyerang sistem AI anda. Semasa pembangunan model, gunakan teknik untuk mengurangkan kesan data racun – satu pendekatan ialah pengesanan nilai luar biasa pada set latihan anda, supaya jika 5% data memberi maklumat pelik atau berbahaya, anda dapat mengesannya sebelum latihan.

    Satu lagi pendekatan ialah latihan model yang kukuh: terdapat algoritma yang boleh menjadikan model kurang sensitif terhadap nilai luar biasa atau bunyi adversarial (contohnya dengan menambah gangguan kecil pada data latihan supaya model belajar menjadi tahan lasak). Semakan kod secara berkala dan ujian keselamatan (termasuk latihan pasukan merah di mana penguji cuba memecahkan sistem AI) adalah sama pentingnya untuk AI seperti mana-mana perisian kritikal.

  • Pemantauan dan Pengesanan Anomali: Selepas pelaksanaan, pantau secara berterusan input dan output sistem AI untuk tanda-tanda pengubahan atau pergeseran. Tetapkan amaran untuk corak luar biasa – contohnya, jika tiba-tiba terdapat lonjakan pertanyaan luar biasa yang serupa ke model AI anda (yang mungkin menandakan cubaan racun atau serangan pengekstrakan), atau jika model mula memberikan output yang jelas pelik. Sistem pengesanan anomali boleh berjalan di latar belakang untuk menandakan kejadian ini.
    Pemantauan juga harus merangkumi metrik kualiti data; jika ketepatan model pada data baru mula menurun secara tidak dijangka, itu boleh menjadi tanda pergeseran data atau serangan racun senyap, yang memerlukan siasatan. Adalah bijak untuk melatih semula atau mengemas kini model secara berkala dengan data segar untuk mengurangkan pergeseran semula jadi dan memohon tampalan jika kelemahan baru dalam algoritma AI ditemui.

  • Pelan Tindak Balas dan Pemulihan Insiden: Walaupun dengan usaha terbaik, pelanggaran atau kegagalan boleh berlaku. Organisasi harus mempunyai pelan tindak balas insiden yang jelas khusus untuk sistem AI. Jika berlaku pelanggaran data, bagaimana anda akan mengawalnya dan memberitahu pihak yang terjejas?
    Jika anda mendapati data latihan anda diracun, adakah anda mempunyai set data sandaran atau versi model terdahulu untuk kembali? Merancang senario terburuk memastikan serangan terhadap AI tidak melumpuhkan operasi anda untuk jangka masa panjang. Sentiasa buat sandaran data kritikal dan versi model – dengan cara ini, jika model AI dalam produksi terjejas, anda boleh kembali ke keadaan yang diketahui baik.

    Dalam aplikasi berisiko tinggi, sesetengah organisasi mengekalkan model AI berlebihan atau ensemble; jika satu model mula berkelakuan mencurigakan, model kedua boleh menyemak silang output atau mengambil alih pemprosesan sehingga isu diselesaikan (ini serupa dengan mekanisme keselamatan gagal selamat).

  • Latihan dan Kesedaran Pekerja: Keselamatan AI bukan hanya isu teknikal; manusia memainkan peranan besar. Pastikan pasukan sains data dan pembangunan anda dilatih dalam amalan selamat. Mereka harus sedar tentang ancaman seperti serangan adversarial dan tidak menganggap data yang mereka berikan kepada AI sentiasa selamat.
    Galakkan budaya skeptisisme di mana trend data luar biasa dipersoalkan dan bukan diabaikan. Juga, didik semua pekerja tentang risiko kejuruteraan sosial berasaskan AI (contohnya, ajar mereka cara mengenal pasti suara deepfake atau emel phishing, kerana ini semakin meningkat dengan AI). Kewaspadaan manusia boleh menangkap perkara yang mungkin terlepas oleh sistem automatik.

Melaksanakan amalan ini boleh mengurangkan risiko insiden keselamatan AI dan data dengan ketara. Malah, agensi antarabangsa seperti Agensi Keselamatan Siber dan Infrastruktur AS (CISA) dan rakan kongsi mengesyorkan langkah-langkah sebegini – dari mengamalkan langkah perlindungan data yang kukuh dan pengurusan risiko proaktif, hingga memperkuat pemantauan dan keupayaan pengesanan ancaman untuk sistem AI.

Dalam nasihat bersama terkini, pihak berkuasa menggesa organisasi untuk “melindungi data sensitif, proprietari, dan kritikal dalam sistem berasaskan AI” dengan menggunakan langkah seperti penyulitan, penjejakan asal usul data, dan ujian ketat. Yang penting, keselamatan harus menjadi proses berterusan: penilaian risiko berterusan diperlukan untuk mengikuti perkembangan ancaman.

Sama seperti penyerang sentiasa merangka strategi baru (terutamanya dengan bantuan AI itu sendiri), organisasi mesti sentiasa mengemas kini dan memperbaiki pertahanan mereka.

Amalan Terbaik untuk Melindungi Data AI

Usaha Global dan Respons Peraturan

Kerajaan dan badan antarabangsa di seluruh dunia aktif menangani isu keselamatan data berkaitan AI untuk mewujudkan kepercayaan terhadap teknologi AI. Kami telah menyebut Akta AI EU yang akan datang, yang akan menguatkuasakan keperluan ketelusan, pengurusan risiko, dan keselamatan siber untuk sistem AI berisiko tinggi. Eropah juga sedang mengkaji kemas kini undang-undang liabiliti untuk memegang penyedia AI bertanggungjawab atas kegagalan keselamatan.

Di Amerika Syarikat, Institut Nasional Piawaian dan Teknologi (NIST) telah mencipta Rangka Kerja Pengurusan Risiko AI untuk membimbing organisasi menilai dan mengurangkan risiko AI, termasuk risiko keselamatan dan privasi. Rangka kerja NIST, yang dikeluarkan pada 2023, menekankan pembinaan sistem AI yang boleh dipercayai dengan mempertimbangkan isu seperti ketahanan, kebolehjelasan, dan keselamatan sejak fasa reka bentuk.

Kerajaan AS juga bekerjasama dengan syarikat AI utama dalam komitmen sukarela terhadap keselamatan siber – contohnya, memastikan model diuji oleh pakar bebas (pasukan merah) untuk kelemahan sebelum dikeluarkan, dan melabur dalam teknik untuk menjadikan output AI lebih selamat.

Kerjasama antarabangsa sangat kukuh dalam keselamatan AI. Satu kolaborasi penting berlaku pada 2023 apabila NCSC UK, CISA, FBI, dan agensi dari lebih 20 negara mengeluarkan garis panduan pembangunan AI selamat bersama. Nasihat global yang belum pernah terjadi ini menegaskan bahawa keselamatan AI adalah cabaran bersama dan menyediakan amalan terbaik (selaras dengan prinsip selamat-dari-reka bentuk yang disebutkan sebelum ini) untuk organisasi di seluruh dunia.

Ia menekankan bahawa “keselamatan mesti menjadi keperluan utama… sepanjang kitaran hayat” AI dan bukan perkara sampingan sahaja. Usaha bersama sebegini menandakan pengiktirafan bahawa ancaman AI tidak mengenal sempadan, dan kelemahan dalam sistem AI yang digunakan secara meluas di satu negara boleh memberi kesan berantai di seluruh dunia.

Selain itu, organisasi seperti UNESCO telah mengambil langkah dengan mewujudkan piawaian etika AI global pertama (2021), yang walaupun lebih luas skopnya, merangkumi perkara penting mengenai keselamatan dan privasi. Cadangan UNESCO menyeru negara anggota dan syarikat memastikan “kemudaratan yang tidak diingini (risiko keselamatan) serta kelemahan terhadap serangan (risiko keselamatan) dielakkan dan ditangani oleh pelaku AI”. Ia juga mengukuhkan keperluan menegakkan perlindungan data dan hak asasi manusia dalam konteks AI.

Kami melihat tema serupa dalam prinsip AI OECD dan kenyataan AI G7: semuanya menekankan keselamatan, akauntabiliti, dan privasi pengguna sebagai tonggak utama untuk AI yang boleh dipercayai.

Dalam sektor swasta, terdapat ekosistem yang berkembang pesat yang memfokuskan pada keselamatan AI. Gabungan industri berkongsi penyelidikan mengenai pembelajaran mesin adversarial, dan persidangan kini secara berkala memasukkan trek mengenai “Pasukan Merah AI” dan keselamatan ML. Alat dan rangka kerja muncul untuk membantu menguji model AI bagi kelemahan sebelum pelaksanaan. Malah badan piawaian turut terlibat – ISO dilaporkan sedang membangunkan piawaian keselamatan AI yang boleh melengkapkan piawaian keselamatan siber sedia ada.

Bagi organisasi dan pengamal, mematuhi garis panduan dan piawaian global ini menjadi sebahagian daripada usaha wajar. Ia bukan sahaja mengurangkan risiko insiden, tetapi juga menyediakan organisasi untuk pematuhan undang-undang dan membina kepercayaan dengan pengguna dan pelanggan. Dalam sektor seperti penjagaan kesihatan dan kewangan, menunjukkan bahawa AI anda selamat dan mematuhi peraturan boleh menjadi kelebihan daya saing.

>>> Mungkin berguna untuk anda:

Risiko Menggunakan AI

Manfaat AI untuk Individu dan Perniagaan

Usaha Global dan Respons Peraturan


Potensi transformasi AI datang dengan cabaran keselamatan data yang sama pentingnya. Memastikan keselamatan dan integriti data dalam sistem AI adalah tidak boleh diabaikan – ia adalah asas kejayaan dan penerimaan penyelesaian AI. Dari melindungi privasi data peribadi hingga melindungi model AI daripada pengubahan dan eksploitasi adversarial, pendekatan keselamatan yang menyeluruh diperlukan.

Isu ini merangkumi teknologi, dasar, dan faktor manusia: set data besar mesti dikendalikan dengan bertanggungjawab di bawah undang-undang privasi; model AI perlu dilindungi daripada teknik serangan baru; dan pengguna serta pembangun mesti sentiasa berwaspada dalam era ancaman siber berasaskan AI.

Berita baiknya ialah kesedaran mengenai isu AI dan keselamatan data kini berada pada tahap tertinggi. Kerajaan, badan antarabangsa, dan pemimpin industri aktif membangunkan rangka kerja dan peraturan untuk membimbing pembangunan AI yang selamat. Sementara itu, penyelidikan terkini terus meningkatkan ketahanan AI – daripada algoritma yang tahan terhadap contoh adversarial hingga kaedah AI yang memelihara privasi (seperti pembelajaran persekutuan dan privasi berbeza) yang membolehkan penemuan berguna tanpa mendedahkan data mentah.

Dengan melaksanakan amalan terbaik – penyulitan kukuh, pengesahan data, pemantauan berterusan, dan lain-lain – organisasi boleh mengurangkan risiko dengan ketara.

Akhirnya, AI harus dibangunkan dan dilaksanakan dengan mindset “keselamatan dahulu”. Seperti yang dinyatakan pakar, keselamatan siber adalah prasyarat untuk manfaat AI dapat direalisasikan sepenuhnya. Apabila sistem AI selamat, kita boleh menikmati kecekapan dan inovasinya dengan yakin.

Tetapi jika kita mengabaikan amaran, pelanggaran data, pengubahan berniat jahat, dan pelanggaran privasi boleh merosakkan kepercayaan awam dan menyebabkan mudarat sebenar. Dalam bidang yang berkembang pesat ini, bersikap proaktif dan sentiasa dikemas kini adalah kunci. AI dan keselamatan data adalah dua sisi mata wang yang sama – dan hanya dengan menangani kedua-duanya secara serentak kita dapat membuka potensi AI dengan selamat dan bertanggungjawab untuk semua.

Rujukan Luar
Artikel ini disusun dengan rujukan kepada sumber luar berikut: