คุณสงสัยเกี่ยวกับอคติในอัลกอริทึมของ AI หรือไม่? เข้าร่วมกับ INVIAI เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับ ปัญญาประดิษฐ์และอคติในอัลกอริทึม ในบทความนี้!

ปัญญาประดิษฐ์ (AI) ถูกฝังตัวในชีวิตประจำวันของเรามากขึ้นเรื่อยๆ ตั้งแต่การตัดสินใจสรรหาบุคลากรไปจนถึงการดูแลสุขภาพและการบังคับใช้กฎหมาย แต่การใช้งานนี้ก็สร้างความกังวลเกี่ยวกับ อคติในอัลกอริทึม อคติในอัลกอริทึมหมายถึงความลำเอียงที่เป็นระบบและไม่เป็นธรรมในผลลัพธ์ของระบบ AI ซึ่งมักสะท้อนภาพลักษณ์และความไม่เท่าเทียมทางสังคม

โดยสรุป อัลกอริทึม AI อาจทำซ้ำอคติของมนุษย์ที่มีอยู่ในข้อมูลฝึกสอนหรือการออกแบบโดยไม่ได้ตั้งใจ ส่งผลให้เกิดผลลัพธ์ที่เลือกปฏิบัติ

ปัญหานี้กลายเป็นหนึ่งในความท้าทายที่ถกเถียงกันอย่างร้อนแรงในจริยธรรมเทคโนโลยี ดึงดูดความสนใจจากนักวิจัย ผู้กำหนดนโยบาย และผู้นำในอุตสาหกรรมทั่วโลก การนำ AI มาใช้ในวงกว้างอย่างรวดเร็วทำให้การแก้ไขอคตินี้เป็นเรื่องเร่งด่วน: หากไม่มีกรอบจริยธรรม AI มีความเสี่ยงที่จะทำซ้ำอคติและการเลือกปฏิบัติในโลกจริง ซึ่งอาจก่อให้เกิดความแตกแยกทางสังคมและคุกคามสิทธิมนุษยชนขั้นพื้นฐาน

ด้านล่างนี้ เราจะสำรวจสาเหตุของอคติในอัลกอริทึม ตัวอย่างผลกระทบในโลกจริง และความพยายามของโลกในการทำให้ AI เป็นธรรมมากขึ้น

ทำความเข้าใจอคติในอัลกอริทึมและสาเหตุของมัน

อคติในอัลกอริทึมมักเกิดขึ้น ไม่ใช่เพราะ AI “ต้องการ” เลือกปฏิบัติ แต่เป็นเพราะปัจจัยของมนุษย์ ระบบ AI เรียนรู้จากข้อมูลและปฏิบัติตามกฎที่มนุษย์สร้างขึ้น ซึ่งมนุษย์เองก็มีอคติ (ซึ่งมักเป็นอคติที่ไม่รู้ตัว)
หากข้อมูลฝึกสอนมีความลำเอียงหรือสะท้อนอคติในอดีต AI ก็มีแนวโน้มที่จะเรียนรู้รูปแบบเหล่านั้น

ตัวอย่างเช่น AI ที่ใช้คัดกรองประวัติการทำงานซึ่งฝึกด้วยข้อมูลการจ้างงานในอุตสาหกรรมเทคโนโลยีตลอดสิบปีที่ผ่านมา (ซึ่งส่วนใหญ่ผู้ที่ได้รับการจ้างงานเป็นผู้ชาย) อาจสรุปได้ว่าผู้สมัครชายเป็นที่ต้องการมากกว่า ส่งผลให้ผู้หญิงเสียเปรียบ สาเหตุทั่วไปอื่นๆ ได้แก่ ชุดข้อมูลที่ไม่ครบถ้วนหรือไม่เป็นตัวแทน การติดป้ายข้อมูลที่มีอคติ หรืออัลกอริทึมที่ถูกปรับแต่งเพื่อความแม่นยำโดยรวมแต่ไม่คำนึงถึงความเป็นธรรมสำหรับกลุ่มชนกลุ่มน้อย

โดยสรุป อัลกอริทึม AI สืบทอดอคติจากผู้สร้างและข้อมูลของตน เว้นแต่จะมีการดำเนินการอย่างตั้งใจเพื่อรับรู้และแก้ไขอคติเหล่านั้น

ควรสังเกตว่าอคติในอัลกอริทึมมักเป็น อคติที่ไม่ได้ตั้งใจ องค์กรมักนำ AI มาใช้เพื่อทำให้การตัดสินใจมีความเป็นกลางมากขึ้น แต่หากพวกเขา “ป้อน” ข้อมูลที่มีอคติให้กับระบบ หรือไม่พิจารณาความเท่าเทียมในการออกแบบ ผลลัพธ์ก็ยังคงไม่เป็นธรรม อคติใน AI อาจทำให้โอกาสถูกจัดสรรอย่างไม่เป็นธรรมและสร้างผลลัพธ์ที่ไม่ถูกต้อง ส่งผลกระทบต่อความเป็นอยู่ที่ดีของผู้คนและลดความเชื่อมั่นใน AI

การเข้าใจว่าทำไมอคติถึงเกิดขึ้นเป็นก้าวแรกสู่การแก้ไข และเป็นก้าวที่วงการวิชาการ อุตสาหกรรม และรัฐบาลทั่วโลกกำลังให้ความสำคัญอย่างจริงจัง

ทำความเข้าใจอคติในอัลกอริทึมและสาเหตุของมัน

ตัวอย่างอคติใน AI ในโลกจริง

อคติใน AI ไม่ใช่แค่เรื่องสมมติ แต่มี กรณีจริงในโลกที่เปิดเผยว่าอคติในอัลกอริทึมสามารถนำไปสู่การเลือกปฏิบัติ ตัวอย่างที่โดดเด่นของอคติใน AI ในหลายภาคส่วน ได้แก่:

  • ระบบยุติธรรมทางอาญา: ในสหรัฐอเมริกา อัลกอริทึมที่ใช้ทำนายความเสี่ยงในการกระทำผิดซ้ำ (โอกาสที่จะกระทำผิดซ้ำ) พบว่ามีอคติที่ไม่เป็นธรรมต่อจำเลยผิวดำ โดยมัก ประเมินจำเลยผิวดำว่ามีความเสี่ยงสูงเกินจริง และจำเลยผิวขาวว่ามีความเสี่ยงต่ำเกินจริง ซึ่งทำให้ความไม่เท่าเทียมทางเชื้อชาติในกระบวนการตัดสินโทษรุนแรงขึ้น
    กรณีนี้แสดงให้เห็นว่า AI สามารถขยายอคติในประวัติศาสตร์ของการบังคับใช้กฎหมายและศาลได้อย่างไร

  • การสรรหาและจ้างงาน: Amazon เคย ยกเลิกเครื่องมือสรรหา AI หลังจากพบว่ามันเลือกปฏิบัติต่อผู้หญิง โมเดลการเรียนรู้ของเครื่องได้สอนตัวเองว่าผู้สมัครชายเป็นที่ต้องการมากกว่า เนื่องจากฝึกด้วยประวัติการทำงานในอดีตที่ส่วนใหญ่เป็นผู้ชาย

    ผลลัพธ์คือ ประวัติการทำงานที่มีคำว่า “ผู้หญิง” (เช่น “หัวหน้าชมรมหมากรุกหญิง”) หรือวิทยาลัยหญิงล้วนถูกลดความสำคัญโดยระบบ อัลกอริทึมการจ้างงานที่มีอคตินี้จะกรองผู้หญิงที่มีคุณสมบัติเหมาะสมสำหรับงานด้านเทคนิคออกอย่างไม่เป็นธรรม

  • การดูแลสุขภาพ: อัลกอริทึมที่ใช้ในโรงพยาบาลทั่วสหรัฐฯ เพื่อระบุผู้ป่วยที่ต้องการการดูแลเพิ่มเติม พบว่า ประเมินความต้องการด้านสุขภาพของผู้ป่วยผิวดำต่ำกว่าผู้ป่วยผิวขาว ระบบทำนายลำดับความสำคัญในการจัดการดูแลโดยอิงจากค่าใช้จ่ายด้านสุขภาพ: เนื่องจากในอดีตมีการใช้จ่ายเงินน้อยกว่ากับผู้ป่วยผิวดำที่มีระดับความเจ็บป่วยเท่ากัน อัลกอริทึมจึงสรุปผิดว่าผู้ป่วยผิวดำ “สุขภาพดีกว่า” และให้คะแนนความเสี่ยงต่ำกว่า

    ในทางปฏิบัติ อคตินี้หมายความว่าผู้ป่วยผิวดำจำนวนมากที่ต้องการการดูแลมากกว่าถูกมองข้าม — การศึกษาพบว่าผู้ป่วยผิวดำมีค่าใช้จ่ายทางการแพทย์น้อยกว่าผู้ป่วยผิวขาวที่ป่วยเท่ากันประมาณ 1,800 ดอลลาร์ต่อปี ทำให้ AI ให้การรักษาที่ไม่เพียงพอแก่พวกเขา

  • การจดจำใบหน้า: เทคโนโลยีจดจำใบหน้ามีอคติอย่างมีนัยสำคัญ ในความแม่นยำตามกลุ่มประชากร การศึกษาครอบคลุมปี 2019 โดยสถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐฯ (NIST) พบว่าอัลกอริทึมจดจำใบหน้าส่วนใหญ่มีอัตราความผิดพลาดสูงกว่ามากสำหรับคนผิวสีและผู้หญิงเมื่อเทียบกับผู้ชายผิวขาว

    ในสถานการณ์จับคู่หนึ่งต่อหนึ่ง (ตรวจสอบว่ารูปสองรูปเป็นคนเดียวกันหรือไม่) การระบุผิดเป็นบวกสำหรับใบหน้าชาวเอเชียและแอฟริกัน-อเมริกันมีโอกาสสูงกว่าใบหน้าคอเคเชียนถึง 10 ถึง 100 เท่าในบางอัลกอริทึม ในการค้นหาหนึ่งต่อหลาย (ระบุบุคคลจากฐานข้อมูล ใช้โดยเจ้าหน้าที่บังคับใช้กฎหมาย) อัตราการระบุผิดสูงสุดอยู่ที่ผู้หญิงผิวดำ — อคติที่อันตรายซึ่งเคยนำไปสู่การจับกุมผู้บริสุทธิ์

    ความแตกต่างเหล่านี้แสดงให้เห็นว่า AI ที่มีอคติสามารถทำร้ายกลุ่มที่ถูกกดขี่ได้อย่างไม่สมส่วน

  • AI สร้างสรรค์และเนื้อหาออนไลน์: แม้แต่ระบบ AI ล่าสุดก็ไม่รอดพ้น องค์การยูเนสโกได้ศึกษาปี 2024 พบว่าโมเดลภาษาขนาดใหญ่ (AI ที่อยู่เบื้องหลังแชทบอทและเครื่องมือสร้างเนื้อหา) มักสร้างภาพลักษณ์ทางเพศและเชื้อชาติที่ถดถอย

    ตัวอย่างเช่น ผู้หญิงถูกบรรยายในบทบาทภายในบ้านบ่อยกว่าผู้ชายถึงสี่เท่า โดยชื่อผู้หญิงมักเชื่อมโยงกับคำว่า “บ้าน” และ “เด็ก” ขณะที่ชื่อผู้ชายเชื่อมโยงกับคำว่า “ผู้บริหาร” “เงินเดือน” และ “อาชีพ” นอกจากนี้ การศึกษายังพบว่าโมเดล AI เหล่านี้แสดงอคติทางโฮโมโฟเบียและภาพลักษณ์ทางวัฒนธรรมในผลลัพธ์ของพวกเขา

    เนื่องจากมีผู้ใช้ AI สร้างสรรค์ในชีวิตประจำวันเป็นล้านคน อคติเล็กน้อยในเนื้อหาก็สามารถ ขยายความไม่เท่าเทียมในโลกจริง และเสริมสร้างภาพลักษณ์ที่ไม่ถูกต้องในวงกว้าง

ตัวอย่างเหล่านี้เน้นย้ำว่าอคติในอัลกอริทึมไม่ใช่ปัญหาที่ไกลตัวหรือเกิดขึ้นไม่บ่อย — มันเกิดขึ้นในหลายสาขา ในปัจจุบัน ตั้งแต่โอกาสในการทำงานไปจนถึงความยุติธรรม การดูแลสุขภาพและข้อมูลออนไลน์ ระบบ AI ที่มีอคติสามารถทำซ้ำและแม้แต่เพิ่มความรุนแรงของการเลือกปฏิบัติที่มีอยู่

ความเสียหายมักตกอยู่กับกลุ่มที่ถูกกดขี่ในประวัติศาสตร์ ซึ่งก่อให้เกิดความกังวลด้านจริยธรรมและสิทธิมนุษยชนอย่างรุนแรง ตามคำเตือนของยูเนสโก ความเสี่ยงของ AI คือ “การซ้อนทับกับความไม่เท่าเทียมที่มีอยู่แล้ว ส่งผลให้เกิดความเสียหายเพิ่มเติมต่อกลุ่มที่ถูกกดขี่”

ตัวอย่างอคติใน AI ในโลกจริง

ทำไมอคติใน AI จึงสำคัญ?

ความสำคัญของการแก้ไขอคติใน AI มีสูงมาก หากปล่อยไว้โดยไม่ควบคุม อัลกอริทึมที่มีอคติสามารถฝังรากลึกของการเลือกปฏิบัติในระบบ ภายใต้ภาพลักษณ์ของความเป็นกลางทางเทคโนโลยี การตัดสินใจที่ทำโดย (หรือได้รับการชี้นำจาก) AI — เช่น ใครได้รับการจ้างงาน ใครได้รับสินเชื่อหรือการปล่อยตัวชั่วคราว วิธีที่ตำรวจใช้การเฝ้าระวัง — มีผลกระทบจริงต่อชีวิตของผู้คน

หากการตัดสินใจเหล่านั้นถูกบิดเบือนไปอย่างไม่เป็นธรรมต่อเพศ เชื้อชาติ หรือชุมชนบางกลุ่ม ความไม่เท่าเทียมทางสังคมก็จะขยายตัว ซึ่งอาจนำไปสู่การปฏิเสธโอกาส ความเหลื่อมล้ำทางเศรษฐกิจ หรือแม้แต่ภัยคุกคามต่อเสรีภาพและความปลอดภัยส่วนบุคคลของกลุ่มที่ได้รับผลกระทบ

ในภาพรวม อคติในอัลกอริทึม บ่อนทำลายสิทธิมนุษยชนและความยุติธรรมทางสังคม ขัดแย้งกับหลักการความเท่าเทียมและการไม่เลือกปฏิบัติที่สังคมประชาธิปไตยยึดถือ

อคติใน AI ยังลดทอน ความเชื่อมั่นของสาธารณชน ต่อเทคโนโลยี ผู้คนมีแนวโน้มที่จะไว้วางใจหรือยอมรับระบบ AI ที่ถูกมองว่าไม่เป็นธรรมหรือไม่โปร่งใสลดลง

สำหรับธุรกิจและรัฐบาล ความขาดแคลนความเชื่อนี้เป็นปัญหาร้ายแรง — นวัตกรรมที่ประสบความสำเร็จต้องการความเชื่อมั่นจากสาธารณะ ตามที่ผู้เชี่ยวชาญท่านหนึ่งกล่าว การตัดสินใจของ AI ที่เป็นธรรมและไม่มีอคติไม่เพียงแต่ถูกต้องตามจริยธรรม แต่ยังดีต่อธุรกิจและสังคม เพราะนวัตกรรมที่ยั่งยืนขึ้นอยู่กับความไว้วางใจ

ในทางกลับกัน ความล้มเหลวของ AI ที่ได้รับความสนใจอย่างกว้างขวางเนื่องจากอคติ (เช่นกรณีข้างต้น) อาจทำลายชื่อเสียงและความชอบธรรมขององค์กร

นอกจากนี้ อคติในอัลกอริทึมยังลดทอน ประโยชน์ที่อาจเกิดขึ้นจาก AI AI มีศักยภาพในการเพิ่มประสิทธิภาพและการตัดสินใจ แต่หากผลลัพธ์มีการเลือกปฏิบัติหรือไม่ถูกต้องสำหรับกลุ่มประชากรบางกลุ่ม ก็ไม่สามารถบรรลุผลกระทบเชิงบวกอย่างเต็มที่

ตัวอย่างเช่น เครื่องมือสุขภาพ AI ที่ทำงานได้ดีสำหรับกลุ่มประชากรหนึ่งแต่ทำงานได้ไม่ดีสำหรับกลุ่มอื่น ไม่ใช่เครื่องมือที่มีประสิทธิภาพหรือยอมรับได้อย่างแท้จริง ตามที่ OECD สังเกต อคติใน AI จำกัดโอกาสอย่างไม่เป็นธรรมและอาจทำให้ธุรกิจเสียชื่อเสียงและความไว้วางใจจากผู้ใช้

โดยสรุป การแก้ไขอคติไม่ใช่แค่หน้าที่ทางศีลธรรมเท่านั้น แต่ยังเป็นสิ่งสำคัญในการใช้ประโยชน์จาก AI เพื่อประโยชน์ของ ทุกคน อย่างเป็นธรรม

ทำไมอคติใน AI จึงสำคัญ

กลยุทธ์ในการลดอคติใน AI

เนื่องจากอคติในอัลกอริทึมได้รับการยอมรับอย่างกว้างขวางแล้ว จึงมี กลยุทธ์และแนวปฏิบัติที่ดีที่สุด หลายประการเพื่อบรรเทาปัญหานี้ การทำให้ระบบ AI เป็นธรรมและครอบคลุมต้องดำเนินการในหลายขั้นตอนของการพัฒนาและการนำไปใช้:

  • การจัดการข้อมูลที่ดีขึ้น: เนื่องจากข้อมูลที่มีอคติเป็นสาเหตุหลัก การปรับปรุงคุณภาพข้อมูลจึงเป็นกุญแจสำคัญ ซึ่งหมายถึงการใช้ ชุดข้อมูลฝึกสอนที่หลากหลายและเป็นตัวแทน ที่รวมกลุ่มชนกลุ่มน้อย และตรวจสอบความเบ้หรือช่องว่างอย่างเข้มงวด

    ยังรวมถึงการตรวจสอบข้อมูลเพื่อหาความลำเอียงในอดีต (เช่น ผลลัพธ์ที่แตกต่างตามเชื้อชาติ/เพศ) และแก้ไขหรือปรับสมดุลก่อนฝึกโมเดล ในกรณีที่กลุ่มใดกลุ่มหนึ่งมีตัวแทนน้อย เทคนิคเช่นการเพิ่มข้อมูลหรือข้อมูลสังเคราะห์สามารถช่วยได้

    งานวิจัยของ NIST ชี้ให้เห็นว่าชุดข้อมูลฝึกสอนที่หลากหลายสามารถให้ผลลัพธ์ที่เป็นธรรมมากขึ้นในเทคโนโลยีจดจำใบหน้า ตัวอย่างเช่น การติดตามผลลัพธ์ของ AI อย่างต่อเนื่องยังช่วยตรวจจับปัญหาอคติได้ตั้งแต่เนิ่นๆ — สิ่งที่วัดได้จะถูกจัดการ หากองค์กรเก็บข้อมูลที่ชัดเจนเกี่ยวกับการตัดสินใจของอัลกอริทึมตามกลุ่มประชากร พวกเขาจะสามารถระบุรูปแบบที่ไม่เป็นธรรมและแก้ไขได้

  • การออกแบบอัลกอริทึมที่เป็นธรรม: นักพัฒนาควรรวม ข้อจำกัดด้านความเป็นธรรมและเทคนิคการลดอคติ เข้าไปในกระบวนการฝึกโมเดลอย่างมีสติ ซึ่งอาจรวมถึงการใช้โมเดลที่สามารถปรับแต่งเพื่อความเป็นธรรม (ไม่ใช่แค่ความแม่นยำ) หรือใช้เทคนิคเพื่อปรับอัตราความผิดพลาดให้เท่าเทียมกันในแต่ละกลุ่ม

    ปัจจุบันมีเครื่องมือและกรอบงาน (หลายอย่างเป็นโอเพนซอร์ส) สำหรับทดสอบอคติและปรับแต่งโมเดล เช่น การปรับน้ำหนักข้อมูล การเปลี่ยนเกณฑ์การตัดสินใจ หรือการลบคุณสมบัติที่ละเอียดอ่อนอย่างรอบคอบ

    ที่สำคัญ มีคำนิยามทางคณิตศาสตร์หลายแบบของความเป็นธรรม (เช่น ความเท่าเทียมในการทำนาย ความเท่าเทียมในอัตราความผิดพลาดบวกเท็จ ฯลฯ) และบางครั้งก็ขัดแย้งกัน การเลือกแนวทางความเป็นธรรมที่เหมาะสมต้องใช้การตัดสินใจทางจริยธรรมและบริบท ไม่ใช่แค่การปรับข้อมูล

    ดังนั้น ทีม AI จึงควรร่วมมือกับผู้เชี่ยวชาญในสาขาและชุมชนที่ได้รับผลกระทบเมื่อกำหนดเกณฑ์ความเป็นธรรมสำหรับการใช้งานเฉพาะ

  • การกำกับดูแลและความรับผิดชอบของมนุษย์: ไม่มีระบบ AI ใดควรทำงานโดยปราศจากความรับผิดชอบของมนุษย์ การกำกับดูแลโดยมนุษย์ เป็นสิ่งสำคัญในการจับและแก้ไขอคติที่เครื่องอาจเรียนรู้

    หมายถึงการมีมนุษย์เข้ามามีส่วนร่วมในกระบวนการตัดสินใจที่สำคัญ เช่น ผู้สรรหาที่ตรวจสอบผู้สมัครที่ AI คัดกรอง หรือผู้พิพากษาที่พิจารณาคะแนนความเสี่ยงจาก AI อย่างระมัดระวัง

    ยังหมายถึงการกำหนดความรับผิดชอบอย่างชัดเจน: องค์กรต้องจำไว้ว่าพวกเขา รับผิดชอบต่อการตัดสินใจที่อัลกอริทึมของตนทำขึ้น เหมือนกับการตัดสินใจของพนักงาน การตรวจสอบการตัดสินใจของ AI อย่างสม่ำเสมอ การประเมินผลกระทบของอคติ และความสามารถในการอธิบายเหตุผลของ AI (ความโปร่งใส) ช่วยรักษาความรับผิดชอบ

    ความโปร่งใสเป็นอีกเสาหลักที่นี่: การเปิดเผยวิธีการทำงานของระบบ AI และข้อจำกัดที่ทราบสามารถสร้างความเชื่อมั่นและเปิดโอกาสให้มีการตรวจสอบอิสระ

    ในความเป็นจริง บางเขตอำนาจศาลกำลังมุ่งสู่ การบังคับใช้ความโปร่งใสสำหรับการตัดสินใจที่มีความเสี่ยงสูงโดยอัลกอริทึม (เช่น การกำหนดให้หน่วยงานสาธารณะเปิดเผยวิธีการใช้ระบบอัลกอริทึมในการตัดสินใจที่ส่งผลต่อประชาชน) เป้าหมายคือเพื่อให้ AI ช่วยเสริมการตัดสินใจของมนุษย์ โดยไม่ทดแทนการตัดสินใจทางจริยธรรมหรือความรับผิดชอบทางกฎหมาย

  • ทีมงานที่หลากหลายและการพัฒนาที่ครอบคลุม: ผู้เชี่ยวชาญจำนวนมากเน้นคุณค่าของ ความหลากหลายในหมู่นักพัฒนาและผู้มีส่วนได้ส่วนเสียใน AI ผลิตภัณฑ์ AI สะท้อนมุมมองและจุดบอดของผู้สร้าง

    ดังนั้น หากมีเพียงกลุ่มคนที่เหมือนกัน (เช่น เพศเดียว เชื้อชาติเดียว หรือพื้นฐานวัฒนธรรมเดียว) ออกแบบระบบ AI พวกเขาอาจมองข้ามผลกระทบที่ไม่เป็นธรรมต่อผู้อื่น

    การนำเสียงที่หลากหลายเข้ามา — รวมถึงผู้หญิง ชนกลุ่มน้อยทางเชื้อชาติ และผู้เชี่ยวชาญจากสังคมศาสตร์หรือจริยธรรม — ในกระบวนการออกแบบและทดสอบ จะนำไปสู่ AI ที่มีความตระหนักทางวัฒนธรรมมากขึ้น

    ยูเนสโกชี้ว่า จากข้อมูลล่าสุด ผู้หญิงยังมีสัดส่วนน้อยมากในบทบาท AI (เพียงประมาณ 20% ของพนักงานเทคนิค AI และ 12% ของนักวิจัย AI เป็นผู้หญิง) การเพิ่มสัดส่วนไม่ใช่แค่เรื่องความเท่าเทียมในที่ทำงาน แต่เป็นเรื่องของ การปรับปรุงผลลัพธ์ของ AI: หากระบบ AI ไม่ได้พัฒนาโดยทีมที่หลากหลาย ก็มีแนวโน้มที่จะไม่ตอบสนองความต้องการของผู้ใช้ที่หลากหลายหรือปกป้องสิทธิของทุกคน

    โครงการอย่างแพลตฟอร์ม Women4Ethical AI ของยูเนสโกมุ่งส่งเสริมความหลากหลายและแบ่งปันแนวปฏิบัติที่ดีที่สุดสำหรับการออกแบบ AI ที่ไม่เลือกปฏิบัติ

  • กฎระเบียบและแนวทางจริยธรรม: รัฐบาลและองค์กรระหว่างประเทศกำลังเข้ามามีบทบาทเพื่อให้แน่ใจว่าอคติใน AI ได้รับการแก้ไข ในปี 2021 รัฐสมาชิกยูเนสโกได้ผ่าน ข้อเสนอแนะเกี่ยวกับจริยธรรมของปัญญาประดิษฐ์ อย่างเป็นเอกฉันท์ — ซึ่งเป็นกรอบงานจริยธรรม AI ระดับโลกฉบับแรก

    ข้อเสนอแนะนี้ยึดหลักการ ความโปร่งใส ความเป็นธรรม และการไม่เลือกปฏิบัติ และเน้นความสำคัญของ การกำกับดูแลโดยมนุษย์ ของระบบ AI หลักการเหล่านี้เป็นแนวทางให้ประเทศต่างๆ กำหนดนโยบายและกฎหมายเกี่ยวกับ AI

    เช่นเดียวกับกฎหมาย AI ฉบับใหม่ของสหภาพยุโรป (AI Act) ที่จะมีผลบังคับใช้เต็มรูปแบบในปี 2024 ซึ่งเน้นการป้องกันอคติเป็นลำดับความสำคัญ หนึ่งในเป้าหมายหลักของ AI Act คือการลดการเลือกปฏิบัติและอคติในระบบ AI ที่มีความเสี่ยงสูง

    กฎหมายนี้จะกำหนดให้ระบบที่ใช้ในพื้นที่ที่มีความอ่อนไหว (เช่น การจ้างงาน เครดิต การบังคับใช้กฎหมาย ฯลฯ) ต้องผ่านการประเมินความเป็นธรรมอย่างเข้มงวดและไม่ก่อให้เกิดอันตรายต่อกลุ่มที่ได้รับการคุ้มครองอย่างไม่สมส่วน

    การละเมิดอาจนำไปสู่ค่าปรับจำนวนมาก สร้างแรงจูงใจที่แข็งแกร่งให้บริษัทต่างๆ สร้างมาตรการควบคุมอคติ

    นอกจากกฎระเบียบทั่วไปแล้ว บางรัฐบาลท้องถิ่นได้ดำเนินการเฉพาะ เช่น เมืองใหญ่กว่าโหล (รวมถึงซานฟรานซิสโก บอสตัน และมินนิอาโปลิส) ได้ห้ามการใช้เทคโนโลยีจดจำใบหน้าของตำรวจโดยสิ้นเชิง เนื่องจากอคติทางเชื้อชาติและความเสี่ยงต่อสิทธิมนุษยชนที่พิสูจน์ได้

    ในฝั่งอุตสาหกรรม องค์กรมาตรฐานและบริษัทเทคโนโลยีกำลังเผยแพร่แนวทางและพัฒนาเครื่องมือ (เช่น ชุดเครื่องมือความเป็นธรรมและกรอบงานตรวจสอบ) เพื่อช่วยผู้ปฏิบัติงานฝังจริยธรรมในการพัฒนา AI

    การเคลื่อนไหวสู่ “AI ที่น่าเชื่อถือ” เกี่ยวข้องกับความพยายามเหล่านี้ร่วมกัน เพื่อให้ระบบ AI เป็น ถูกกฎหมาย มีจริยธรรม และมั่นคง ในทางปฏิบัติ

>>> คุณต้องการทราบว่า:

ผลกระทบของปัญญาประดิษฐ์ต่อการจ้างงาน

กลยุทธ์ในการลดอคติใน AI


อคติใน AI และอัลกอริทึมเป็นความท้าทายระดับโลกที่เรายังเพิ่งเริ่มต้นแก้ไขอย่างมีประสิทธิภาพ ตัวอย่างและความพยายามข้างต้นแสดงให้เห็นว่าอคติใน AI ไม่ใช่ปัญหาเฉพาะกลุ่ม — มันส่งผลกระทบต่อโอกาสทางเศรษฐกิจ ความยุติธรรม สุขภาพ และความสามัคคีทางสังคมทั่วโลก

ข่าวดีคือความตระหนักรู้เพิ่มขึ้นอย่างมาก และมีความเห็นพ้องต้องกันว่า AI ต้องมุ่งเน้นที่มนุษย์และเป็นธรรม

การบรรลุเป้าหมายนี้ต้องการความระมัดระวังอย่างต่อเนื่อง: การทดสอบระบบ AI อย่างสม่ำเสมอเพื่อหาความลำเอียง ปรับปรุงข้อมูลและอัลกอริทึม รวมถึงการมีส่วนร่วมของผู้มีส่วนได้ส่วนเสียที่หลากหลาย และการปรับปรุงกฎระเบียบตามการพัฒนาเทคโนโลยี

โดยแก่นแท้ การต่อสู้กับอคติในอัลกอริทึมคือการ ปรับ AI ให้สอดคล้องกับค่านิยมของเราเรื่องความเท่าเทียมและความเป็นธรรม ตามที่ผู้อำนวยการใหญ่ยูเนสโก Audrey Azoulay กล่าวไว้ แม้แต่ “อคติเล็กน้อยในเนื้อหา [AI] ก็สามารถขยายความไม่เท่าเทียมในโลกจริงได้อย่างมาก”

ดังนั้น การแสวงหา AI ที่ปราศจากอคติจึงเป็นสิ่งสำคัญเพื่อให้เทคโนโลยี ยกระดับทุกกลุ่มในสังคม แทนที่จะเสริมสร้างอคติเดิม

โดยการให้ความสำคัญกับหลักจริยธรรมในการออกแบบ AI — และสนับสนุนด้วยการดำเนินการและนโยบายที่ชัดเจน — เราสามารถใช้พลังนวัตกรรมของ AI พร้อมกับปกป้องศักดิ์ศรีความเป็นมนุษย์

เส้นทางข้างหน้าของ AI คือการที่เครื่องจักรอัจฉริยะ เรียนรู้ จากค่านิยมที่ดีที่สุดของมนุษยชาติ ไม่ใช่อคติที่เลวร้ายที่สุดของเรา เพื่อให้เทคโนโลยีเป็นประโยชน์ต่อทุกคนอย่างแท้จริง