Adakah anda tertanya-tanya tentang bias algoritma dalam AI? Sertai INVIAI untuk mengetahui lebih lanjut mengenai AI dan Bias Algoritma dalam artikel ini!

Kecerdasan Buatan (AI) semakin tertanam dalam kehidupan seharian kita – daripada keputusan pengambilan pekerja hingga penjagaan kesihatan dan penguatkuasaan undang-undang – tetapi penggunaannya menimbulkan kebimbangan mengenai bias algoritma. Bias algoritma merujuk kepada prasangka sistematik dan tidak adil dalam hasil sistem AI, yang sering mencerminkan stereotaip dan ketidaksamaan masyarakat.

Secara ringkas, algoritma AI boleh tanpa sengaja mengulangi bias manusia yang terdapat dalam data latihan atau reka bentuknya, menyebabkan keputusan yang diskriminasi.

Isu ini telah menjadi salah satu cabaran etika teknologi yang paling hangat diperdebatkan, menarik perhatian global daripada penyelidik, pembuat dasar, dan pemimpin industri. Penggunaan AI yang pesat menjadikan penting untuk menangani bias sekarang: tanpa kawalan etika, AI berisiko mengulangi bias dan diskriminasi dunia sebenar, memburukkan perpecahan sosial dan bahkan mengancam hak asasi manusia yang asas.

Di bawah, kami meneroka punca bias algoritma, contoh kesannya dalam dunia sebenar, dan bagaimana dunia berusaha menjadikan AI lebih adil.

Memahami Bias Algoritma dan Puncanya

Bias algoritma biasanya timbul bukannya kerana AI “ingin” mendiskriminasi, tetapi disebabkan faktor manusia. Sistem AI belajar daripada data dan mengikuti peraturan yang dibuat oleh manusia – dan manusia mempunyai bias (sering kali tidak sedar).
Jika data latihan berat sebelah atau mencerminkan prasangka sejarah, AI kemungkinan besar akan mempelajari corak tersebut.

Sebagai contoh, AI penapis resume yang dilatih berdasarkan pengambilan dalam industri teknologi selama satu dekad (di mana kebanyakan pemohon yang diambil adalah lelaki) mungkin menganggap calon lelaki lebih disukai, sekali gus merugikan wanita. Punca biasa lain termasuk set data yang tidak lengkap atau tidak mewakili, pelabelan data yang berat sebelah, atau algoritma yang dioptimumkan untuk ketepatan keseluruhan tetapi bukan keadilan untuk kumpulan minoriti.

Pendek kata, algoritma AI mewarisi bias pencipta dan data mereka kecuali langkah sengaja diambil untuk mengenal pasti dan membetulkan bias tersebut.

Perlu diingat bahawa bias algoritma biasanya tidak disengajakan. Organisasi sering menggunakan AI untuk membuat keputusan lebih objektif, tetapi jika mereka “memberi makan” sistem dengan maklumat berat sebelah atau gagal mempertimbangkan keadilan dalam reka bentuk, hasilnya masih boleh menjadi tidak adil. Bias AI boleh mengagihkan peluang secara tidak adil dan menghasilkan keputusan yang tidak tepat, memberi kesan negatif kepada kesejahteraan orang dan merosakkan kepercayaan terhadap AI.

Memahami mengapa bias berlaku adalah langkah pertama ke arah penyelesaian – dan ia adalah langkah yang kini diambil dengan serius oleh akademia, industri, dan kerajaan di seluruh dunia.

Memahami Bias Algoritma dan Puncanya

Contoh Bias AI dalam Dunia Sebenar

Bias dalam AI bukan sekadar kebimbangan hipotesis; banyak kes dunia sebenar telah mendedahkan bagaimana bias algoritma boleh membawa kepada diskriminasi. Contoh ketara bias AI dalam pelbagai sektor termasuk:

  • Keadilan Jenayah: Di Amerika Syarikat, satu algoritma popular yang digunakan untuk meramalkan risiko pengulangan jenayah didapati berat sebelah terhadap defendan kulit hitam. Ia sering menilai defendan kulit hitam sebagai berisiko tinggi dan defendan kulit putih sebagai berisiko rendah, memburukkan ketidaksamaan kaum dalam hukuman.
    Kes ini menonjolkan bagaimana AI boleh memperkuat bias sejarah dalam penguatkuasaan undang-undang dan mahkamah.

  • Pengambilan dan Rekrutmen: Amazon terkenal kerana membatalkan alat pengambilan AI selepas mendapati ia mendiskriminasi wanita. Model pembelajaran mesin itu mengajar dirinya bahawa calon lelaki lebih disukai kerana ia dilatih berdasarkan resume masa lalu yang kebanyakannya lelaki.

    Akibatnya, resume yang mengandungi perkataan “wanita” (contohnya “kapten kelab catur wanita”) atau kolej wanita sepenuhnya diturunkan kedudukannya oleh sistem. Algoritma pengambilan yang berat sebelah ini secara tidak adil menapis keluar wanita yang layak untuk pekerjaan teknikal.

  • Penjagaan Kesihatan: Satu algoritma yang digunakan oleh hospital di seluruh AS untuk mengenal pasti pesakit yang memerlukan penjagaan tambahan didapati meremehkan keperluan kesihatan pesakit kulit hitam berbanding pesakit kulit putih. Sistem itu meramalkan keutamaan pengurusan penjagaan berdasarkan perbelanjaan kesihatan: kerana secara sejarah kurang wang dibelanjakan untuk pesakit kulit hitam dengan tahap penyakit yang sama, algoritma salah menganggap pesakit kulit hitam “lebih sihat” dan memberikan skor risiko lebih rendah.

    Dalam praktiknya, bias ini bermakna ramai pesakit kulit hitam yang memerlukan lebih penjagaan terabai – kajian menunjukkan pesakit kulit hitam menanggung kos perubatan sekitar ~$1,800 kurang setahun berbanding pesakit kulit putih yang sama sakit, menyebabkan AI merawat mereka secara kurang.

  • Pengenalan Wajah: Teknologi pengenalan wajah menunjukkan bias ketara dalam ketepatan mengikut garis demografi. Kajian menyeluruh 2019 oleh Institut Piawaian dan Teknologi Kebangsaan AS (NIST) mendapati majoriti algoritma pengenalan wajah mempunyai kadar kesilapan jauh lebih tinggi untuk orang berwarna dan wanita berbanding lelaki kulit putih.

    Dalam senario padanan satu-ke-satu (mengesahkan jika dua gambar adalah orang yang sama), pengenalan positif palsu untuk wajah Asia dan Afrika-Amerika adalah 10 hingga 100 kali lebih tinggi berbanding wajah Kaukasia dalam beberapa algoritma. Dalam carian satu-ke-banyak (mengenal pasti seseorang daripada pangkalan data, digunakan oleh penguatkuasa undang-undang), kadar salah kenal tertinggi adalah untuk wanita kulit hitam – bias berbahaya yang telah menyebabkan orang tidak bersalah ditangkap secara salah.

    Perbezaan ini menunjukkan bagaimana AI yang berat sebelah boleh memberi kesan tidak seimbang kepada kumpulan terpinggir.

  • AI Generatif dan Kandungan Dalam Talian: Sistem AI terkini juga tidak kebal. Kajian UNESCO 2024 mendedahkan model bahasa besar (AI di belakang chatbot dan penjana kandungan) sering menghasilkan stereotaip jantina dan kaum yang mundur.

    Contohnya, wanita digambarkan dalam peranan domestik empat kali lebih kerap daripada lelaki oleh satu model popular, dengan nama feminin sering dikaitkan dengan perkataan seperti “rumah” dan “kanak-kanak,” manakala nama lelaki dikaitkan dengan “eksekutif,” “gaji,” dan “kerjaya”. Begitu juga, kajian mendapati model AI ini menunjukkan bias homofobik dan stereotaip budaya dalam hasilnya.

    Memandangkan jutaan orang kini menggunakan AI generatif dalam kehidupan harian, walaupun bias halus dalam kandungan boleh memperkuat ketidaksamaan dalam dunia sebenar, mengukuhkan stereotaip secara meluas.

Contoh-contoh ini menegaskan bahawa bias algoritma bukan masalah jauh atau jarang berlaku – ia berlaku dalam pelbagai bidang hari ini. Dari peluang pekerjaan hingga keadilan, penjagaan kesihatan hingga maklumat dalam talian, sistem AI yang berat sebelah boleh menggandakan dan malah memperhebat diskriminasi sedia ada.

Kesan buruknya sering ditanggung oleh kumpulan yang secara sejarah terpinggir, menimbulkan kebimbangan serius dari segi etika dan hak asasi manusia. Seperti yang diperingatkan UNESCO, risiko AI adalah “menambah ketidaksamaan sedia ada, mengakibatkan kemudaratan lebih lanjut kepada kumpulan yang sudah terpinggir”.

Contoh Bias AI dalam Dunia Sebenar

Mengapa Bias AI Penting?

Taruhannya tinggi dalam menangani bias AI. Jika dibiarkan tanpa kawalan, algoritma berat sebelah boleh mengukuhkan diskriminasi sistemik di sebalik penampilan neutral teknologi. Keputusan yang dibuat (atau dipandu) oleh AI – siapa yang diambil bekerja, siapa yang mendapat pinjaman atau parol, bagaimana polis menargetkan pengawasan – membawa kesan nyata kepada kehidupan manusia.

Jika keputusan itu tidak adil terhadap jantina, kaum, atau komuniti tertentu, ketidaksamaan sosial akan melebar. Ini boleh menyebabkan peluang ditolak, jurang ekonomi, atau ancaman kepada kebebasan dan keselamatan peribadi bagi kumpulan yang terjejas.

Dalam gambaran lebih besar, bias algoritma menghakis hak asasi manusia dan keadilan sosial, bertentangan dengan prinsip kesaksamaan dan bukan diskriminasi yang dijunjung oleh masyarakat demokratik.

Bias dalam AI juga merosakkan kepercayaan awam terhadap teknologi. Orang ramai kurang cenderung mempercayai atau menggunakan sistem AI yang dianggap tidak adil atau tidak telus.

Bagi perniagaan dan kerajaan, defisit kepercayaan ini adalah isu serius – inovasi yang berjaya memerlukan keyakinan awam. Seperti yang dinyatakan oleh seorang pakar, keputusan AI yang adil dan tanpa bias bukan sahaja beretika, malah baik untuk perniagaan dan masyarakat kerana inovasi lestari bergantung pada kepercayaan.

Sebaliknya, kegagalan AI yang mendapat liputan meluas akibat bias (seperti kes-kes di atas) boleh merosakkan reputasi dan legitimasi organisasi.

Selain itu, bias algoritma boleh mengurangkan manfaat potensi AI. AI berpotensi meningkatkan kecekapan dan pembuatan keputusan, tetapi jika hasilnya diskriminasi atau tidak tepat untuk sebahagian populasi, ia tidak dapat mencapai impak positif sepenuhnya.

Sebagai contoh, alat kesihatan AI yang berfungsi baik untuk satu demografi tetapi kurang baik untuk yang lain tidak benar-benar berkesan atau boleh diterima. Seperti yang diperhatikan oleh OECD, bias dalam AI secara tidak adil mengehadkan peluang dan boleh menjejaskan reputasi perniagaan serta kepercayaan pengguna.

Pendek kata, menangani bias bukan sahaja kewajipan moral tetapi juga penting untuk memanfaatkan manfaat AI secara adil kepada semua individu.

Mengapa Bias AI Penting

Strategi untuk Mengurangkan Bias AI

Kerana bias algoritma kini diiktiraf secara meluas, pelbagai strategi dan amalan terbaik telah muncul untuk mengurangkannya. Memastikan sistem AI adil dan inklusif memerlukan tindakan pada pelbagai peringkat pembangunan dan pelaksanaan:

  • Amalan Data yang Lebih Baik: Memandangkan data berat sebelah adalah punca utama, meningkatkan kualiti data adalah kunci. Ini bermakna menggunakan set data latihan yang pelbagai dan mewakili yang merangkumi kumpulan minoriti, serta memeriksa dengan teliti sebarang kecenderungan atau kekurangan.

    Ia juga melibatkan audit data untuk bias sejarah (contohnya keputusan berbeza mengikut kaum/jantina) dan membetulkan atau mengimbangi sebelum melatih model. Dalam kes kumpulan tertentu kurang diwakili, teknik seperti penambahan data atau data sintetik boleh membantu.

    Penyelidikan NIST mencadangkan bahawa data latihan yang lebih pelbagai boleh menghasilkan keputusan yang lebih adil dalam pengenalan wajah, contohnya. Pemantauan berterusan terhadap output AI juga boleh mengesan isu bias awal – apa yang diukur akan diurus. Jika organisasi mengumpul data kukuh tentang bagaimana keputusan algoritma mereka berbeza mengikut demografi, mereka boleh mengenal pasti corak tidak adil dan menanganinya.

  • Reka Bentuk Algoritma yang Adil: Pembangun harus secara sedar mengintegrasikan had keadilan dan teknik mitigasi bias ke dalam latihan model. Ini mungkin termasuk menggunakan algoritma yang boleh disesuaikan untuk keadilan (bukan hanya ketepatan), atau menggunakan teknik untuk menyamakan kadar kesilapan antara kumpulan.

    Terdapat kini alat dan rangka kerja (banyak sumber terbuka) untuk menguji model bagi bias dan melaraskannya – contohnya, penimbangan semula data, mengubah ambang keputusan, atau menghapuskan ciri sensitif secara berhemah.

    Penting untuk diketahui bahawa terdapat pelbagai definisi matematik keadilan (contohnya kesaksamaan ramalan, kadar positif palsu yang sama, dan lain-lain), dan kadangkala ia bertentangan. Memilih pendekatan keadilan yang tepat memerlukan pertimbangan etika dan konteks, bukan sekadar pelarasan data.

    Oleh itu, pasukan AI digalakkan bekerjasama dengan pakar domain dan komuniti terjejas ketika menentukan kriteria keadilan untuk aplikasi tertentu.

  • Pengawasan dan Akauntabiliti Manusia: Tiada sistem AI harus beroperasi tanpa akauntabiliti manusia. Pengawasan manusia adalah penting untuk mengesan dan membetulkan bias yang mungkin dipelajari mesin.

    Ini bermakna melibatkan manusia dalam proses membuat keputusan penting – contohnya, perekrut menyemak calon yang disaring AI, atau hakim menilai skor risiko AI dengan berhati-hati.

    Ia juga bermakna penetapan tanggungjawab yang jelas: organisasi mesti ingat mereka bertanggungjawab terhadap keputusan yang dibuat oleh algoritma mereka sama seperti keputusan yang dibuat oleh pekerja. Audit berkala terhadap keputusan AI, penilaian impak bias, dan keupayaan untuk menjelaskan alasan AI (keterjelasan) membantu mengekalkan akauntabiliti.

    Ketelusan adalah satu lagi tonggak di sini: bersikap terbuka tentang cara sistem AI berfungsi dan had yang diketahui boleh membina kepercayaan dan membolehkan pemeriksaan bebas.

    Sebenarnya, beberapa bidang kuasa sedang bergerak ke arah mengwajibkan ketelusan untuk keputusan algoritma berisiko tinggi (contohnya, menghendaki agensi awam mendedahkan bagaimana algoritma digunakan dalam keputusan yang memberi kesan kepada rakyat). Matlamatnya adalah memastikan AI menyokong pembuatan keputusan manusia tanpa menggantikan pertimbangan etika atau tanggungjawab undang-undang.

  • Pasukan Pelbagai dan Pembangunan Inklusif: Semakin ramai pakar menekankan nilai kepelbagaian dalam kalangan pembangun dan pihak berkepentingan AI. Produk AI mencerminkan perspektif dan titik buta pembinanya.

    Oleh itu, jika hanya sekumpulan homogen (contohnya satu jantina, satu etnik, atau satu latar budaya) yang mereka bentuk sistem AI, mereka mungkin terlepas pandang bagaimana ia boleh memberi kesan tidak adil kepada orang lain.

    Melibatkan suara pelbagai – termasuk wanita, minoriti kaum, dan pakar dari sains sosial atau etika – dalam proses reka bentuk dan ujian menghasilkan AI yang lebih peka budaya.

    UNESCO menunjukkan bahawa berdasarkan data terkini, wanita sangat kurang diwakili dalam peranan AI (hanya ~20% pekerja teknikal AI dan 12% penyelidik AI adalah wanita). Meningkatkan perwakilan bukan sahaja soal kesaksamaan tempat kerja, tetapi juga meningkatkan hasil AI: jika sistem AI tidak dibangunkan oleh pasukan pelbagai, ia kurang berkemungkinan memenuhi keperluan pengguna pelbagai atau melindungi hak semua orang.

    Inisiatif seperti platform UNESCO Women4Ethical AI bertujuan meningkatkan kepelbagaian dan berkongsi amalan terbaik untuk reka bentuk AI tanpa diskriminasi.

  • Peraturan dan Garis Panduan Etika: Kerajaan dan badan antarabangsa kini aktif campur tangan untuk memastikan bias AI ditangani. Pada 2021, negara anggota UNESCO sebulat suara menerima Cadangan Etika Kecerdasan Buatan – rangka kerja global pertama untuk etika AI.

    Ia menegaskan prinsip ketelusan, keadilan, dan bukan diskriminasi, serta menekankan kepentingan pengawasan manusia terhadap sistem AI. Prinsip ini menjadi panduan bagi negara untuk merangka dasar dan undang-undang berkaitan AI.

    Sama juga, Akta AI Kesatuan Eropah yang baru (akan berkuat kuasa sepenuhnya pada 2024) secara jelas menjadikan pencegahan bias sebagai keutamaan. Salah satu objektif utama Akta AI adalah mengurangkan diskriminasi dan bias dalam sistem AI berisiko tinggi.

    Akta ini akan mewajibkan sistem yang digunakan dalam bidang sensitif (seperti pengambilan, kredit, penguatkuasaan undang-undang, dan lain-lain) menjalani penilaian ketat untuk keadilan dan tidak memberi kesan tidak seimbang kepada kumpulan dilindungi.

    Pelanggaran boleh menyebabkan denda berat, mewujudkan insentif kuat bagi syarikat membina kawalan bias.

    Selain peraturan umum, beberapa kerajaan tempatan telah mengambil tindakan khusus – contohnya, lebih daripada sedozen bandar utama (termasuk San Francisco, Boston dan Minneapolis) telah mengharamkan penggunaan teknologi pengenalan wajah oleh polis kerana bias kaum yang terbukti dan risiko hak sivil.

    Dari sisi industri, organisasi piawaian dan syarikat teknologi menerbitkan garis panduan dan membangunkan alat (seperti kit alat keadilan dan rangka kerja audit) untuk membantu pengamal mengintegrasikan etika dalam pembangunan AI.

    Pergerakan ke arah “AI Boleh Dipercayai” melibatkan gabungan usaha ini, memastikan sistem AI adalah berlaku mengikut undang-undang, beretika, dan kukuh dalam praktik.

>>> Adakah anda ingin tahu:

Kesan AI terhadap Pekerjaan

Strategi untuk Mengurangkan Bias AI


AI dan bias algoritma adalah cabaran global yang baru kita mula tangani dengan berkesan. Contoh dan usaha di atas jelas menunjukkan bahawa bias AI bukan isu kecil – ia menjejaskan peluang ekonomi, keadilan, kesihatan, dan perpaduan sosial di seluruh dunia.

Berita baiknya ialah kesedaran telah meningkat dengan ketara, dan konsensus sedang terbentuk bahawa AI mesti berpusatkan manusia dan adil.

Mencapai ini memerlukan kewaspadaan berterusan: sentiasa menguji sistem AI untuk bias, memperbaiki data dan algoritma, melibatkan pihak berkepentingan pelbagai, dan mengemas kini peraturan mengikut perkembangan teknologi.

Pada intinya, memerangi bias algoritma adalah tentang menyelaraskan AI dengan nilai kesaksamaan dan keadilan kita. Seperti yang dinyatakan oleh Pengarah Jeneral UNESCO Audrey Azoulay, walaupun “bias kecil dalam kandungan [AI] boleh memperkuat ketidaksamaan dalam dunia sebenar dengan ketara”.

Oleh itu, usaha mencapai AI tanpa bias adalah penting untuk memastikan teknologi meningkatkan semua lapisan masyarakat dan bukan mengukuhkan prasangka lama.

Dengan mengutamakan prinsip etika dalam reka bentuk AI – dan menyokongnya dengan tindakan dan dasar konkrit – kita boleh memanfaatkan kuasa inovasi AI sambil melindungi maruah manusia.

Jalan ke hadapan untuk AI adalah di mana mesin pintar belajar daripada nilai terbaik kemanusiaan, bukan bias terburuk kita, membolehkan teknologi benar-benar memberi manfaat kepada semua.