ปัญญาประดิษฐ์อันตรายหรือไม่?
ปัญญาประดิษฐ์เหมือนเทคโนโลยีทรงพลังอื่น ๆ ที่สามารถสร้างประโยชน์อย่างมากเมื่อใช้อย่างรับผิดชอบ และก่อให้เกิดอันตรายหากใช้อย่างผิดวิธี
ปัญญาประดิษฐ์ (AI) หมายถึงระบบคอมพิวเตอร์ที่เลียนแบบความฉลาดของมนุษย์ เช่น โปรแกรมที่สามารถจดจำภาพ เข้าใจภาษา หรือทำการตัดสินใจ ในชีวิตประจำวัน AI ขับเคลื่อนเครื่องมือต่าง ๆ เช่น ผู้ช่วยเสียงบนสมาร์ทโฟน ระบบแนะนำบนโซเชียลมีเดีย และแม้แต่แชทบอทขั้นสูงที่เขียนข้อความได้
AI มีศักยภาพที่จะพัฒนาหลายสาขาอย่างมาก แต่ก็สร้างความกังวลหลายประการเช่นกัน
ดังนั้น ปัญญาประดิษฐ์อันตรายหรือไม่? บทความนี้จะสำรวจทั้งสองด้าน: ประโยชน์ที่แท้จริงของ AI และอันตรายที่ผู้เชี่ยวชาญเน้นย้ำ
ประโยชน์ที่จับต้องได้ของ AI ในโลกจริง

AI ได้ถูกรวมเข้ากับแอปพลิเคชันที่เป็นประโยชน์มากมายที่แสดงให้เห็นถึงผลกระทบเชิงบวกต่อสังคม
AI สร้างโอกาสมากมายทั่วโลก – ตั้งแต่การวินิจฉัยทางการแพทย์ที่รวดเร็วขึ้น การเชื่อมต่อที่ดีขึ้นผ่านโซเชียลมีเดีย ไปจนถึงการทำงานที่น่าเบื่อให้เป็นอัตโนมัติ
— ยูเนสโก
สหภาพยุโรปก็เน้นย้ำว่า "AI ที่น่าเชื่อถือสามารถนำมาซึ่งประโยชน์มากมาย" เช่น การดูแลสุขภาพที่ดีขึ้น, การขนส่งที่ปลอดภัยกว่า และ อุตสาหกรรมและการใช้พลังงานที่มีประสิทธิภาพมากขึ้น ในทางการแพทย์ องค์การอนามัยโลกรายงานว่า AI ถูกใช้ในการวินิจฉัย การพัฒนายา และการตอบสนองต่อการระบาด โดยกระตุ้นให้ประเทศต่าง ๆ ส่งเสริมนวัตกรรมเหล่านี้เพื่อทุกคน
นักเศรษฐศาสตร์เปรียบเทียบการแพร่กระจายอย่างรวดเร็วของ AI กับการปฏิวัติเทคโนโลยีในอดีต
ประโยชน์หลักของ AI
การดูแลสุขภาพที่ดีขึ้น
ระบบ AI สามารถวิเคราะห์ภาพเอกซเรย์ MRI และข้อมูลผู้ป่วยได้รวดเร็วกว่ามนุษย์ ช่วยในการตรวจพบโรคตั้งแต่ระยะแรกและการรักษาที่เหมาะสมเฉพาะบุคคล
- การถ่ายภาพด้วย AI ช่วยค้นหาก้อนเนื้อที่แพทย์อาจมองไม่เห็น
- การวินิจฉัยและคำแนะนำการรักษาที่รวดเร็วขึ้น
- การแพทย์เฉพาะบุคคลตามข้อมูลผู้ป่วย
ประสิทธิภาพที่สูงขึ้น
กระบวนการอัตโนมัติในโรงงาน สำนักงาน และบริการช่วยเพิ่มผลผลิตอย่างมาก
- กระบวนการผลิตที่มีประสิทธิภาพมากขึ้น
- โครงข่ายพลังงานและการจัดการทรัพยากรที่ชาญฉลาดกว่า
- มนุษย์สามารถมุ่งเน้นงานสร้างสรรค์หรือซับซ้อนได้
การขนส่งที่ปลอดภัยกว่า
เทคโนโลยีรถยนต์ขับเคลื่อนเองและ AI จัดการจราจรมีเป้าหมายลดอุบัติเหตุและความแออัด
- ระบบเตือนภัยภัยพิบัติที่ดีขึ้น
- การจัดการโลจิสติกส์และการขนส่งที่เหมาะสม
- ลดความผิดพลาดของมนุษย์ในการขนส่ง
แนวทางแก้ไขสิ่งแวดล้อม
นักวิจัยใช้ AI วิเคราะห์แบบจำลองสภาพภูมิอากาศและข้อมูลพันธุกรรม ช่วยแก้ไขปัญหาใหญ่เช่นการเปลี่ยนแปลงสภาพภูมิอากาศ
- การจำลองและทำนายสภาพภูมิอากาศ
- การออกแบบ AI ที่ประหยัดพลังงานลดการใช้ไฟฟ้าถึง 90%
- การพัฒนาเทคโนโลยีที่ยั่งยืน
ตัวอย่างเหล่านี้แสดงให้เห็นว่า AI ไม่ใช่แค่เรื่องนิยายวิทยาศาสตร์ – แต่ให้ คุณค่าแท้จริง ในปัจจุบัน
ความเสี่ยงและอันตรายที่อาจเกิดขึ้นจาก AI

แม้จะมีสัญญา แต่ผู้เชี่ยวชาญหลายคนเตือนว่า AI อาจ อันตรายหากใช้อย่างผิดวิธีหรือไม่มีการควบคุม ความกังวลหลักคือ อคติและการเลือกปฏิบัติ เนื่องจาก AI เรียนรู้จากข้อมูลที่มีอยู่ จึงอาจสืบทอดอคติของมนุษย์
หากไม่มีจริยธรรมที่เข้มงวด AI มีความเสี่ยงที่จะทำซ้ำอคติและการเลือกปฏิบัติในโลกจริง กระตุ้นความแตกแยกและคุกคามสิทธิมนุษยชนและเสรีภาพพื้นฐาน
— ยูเนสโก
งานวิจัยแสดงให้เห็นว่าการรู้จำใบหน้ามักจะระบุเพศหญิงหรือคนผิวสีผิด และอัลกอริทึมการจ้างงานอาจลำเอียงต่อเพศบางกลุ่ม Britannica ก็ระบุว่า AI สามารถ "ทำร้ายชนกลุ่มน้อยทางเชื้อชาติด้วยการทำซ้ำและเพิ่มความรุนแรงของการเหยียดเชื้อชาติ"
ความเสี่ยงหลักของ AI
ความเป็นส่วนตัวและการเฝ้าระวัง
ระบบ AI มักต้องการข้อมูลส่วนบุคคลจำนวนมาก (โพสต์โซเชียลมีเดีย, บันทึกสุขภาพ ฯลฯ) ซึ่งเพิ่มความเสี่ยงในการถูกละเมิด หากรัฐบาลหรือบริษัทใช้ AI วิเคราะห์ข้อมูลของคุณโดยไม่ได้รับอนุญาต อาจนำไปสู่การเฝ้าระวังที่ล่วงล้ำ
Britannica เตือนถึง "ความเสี่ยงด้านความเป็นส่วนตัวที่อันตราย" จาก AI เช่น การใช้ AI ในการให้คะแนนเครดิตสังคมที่ถกเถียงกัน – ซึ่งถูกสหภาพยุโรปแบนว่าเป็นการปฏิบัติที่ "ไม่ยอมรับได้"
ข้อมูลเท็จและดีปเฟค
AI สามารถสร้างข้อความ ภาพ หรือวิดีโอปลอมที่สมจริง ซึ่งทำให้การสร้าง ดีปเฟค – วิดีโอปลอมของคนดังหรือข่าวปลอม – ง่ายขึ้น
Britannica ชี้ว่า AI สามารถเผยแพร่ "ข้อมูลเท็จที่มีการเมืองและอันตราย" ผู้เชี่ยวชาญเตือนว่าข้อมูลปลอมเหล่านี้อาจถูกใช้เพื่อบิดเบือนการเลือกตั้งหรือความคิดเห็นสาธารณะ
การสูญเสียงานและความวุ่นวายทางเศรษฐกิจ
ด้วยการทำงานอัตโนมัติ AI จะเปลี่ยนแปลงสถานที่ทำงาน กองทุนการเงินระหว่างประเทศรายงานว่าประมาณ 40% ของงานทั่วโลก (และ 60% ในประเทศพัฒนาแล้ว) มีความเสี่ยงจากการทำงานอัตโนมัติของ AI
นี่รวมถึงงานในโรงงานและงานชนชั้นกลาง เช่น การบัญชีหรือการเขียน แม้ AI อาจเพิ่มผลผลิต (ซึ่งอาจช่วยเพิ่มค่าจ้างในระยะยาว) แต่คนงานหลายคนอาจต้องฝึกอบรมใหม่หรืออาจตกงานในระยะสั้น
ความปลอดภัยและการใช้งานในทางที่ผิด
เช่นเดียวกับเทคโนโลยีอื่น ๆ AI สามารถถูกใช้ในทางที่ผิด อาชญากรไซเบอร์ใช้ AI สร้างอีเมลฟิชชิ่งที่น่าเชื่อถือหรือสแกนระบบหาจุดอ่อน
ผู้เชี่ยวชาญทางทหารกังวลเกี่ยวกับ อาวุธอัตโนมัติ เช่น โดรนหรือหุ่นยนต์ที่เลือกเป้าหมายโดยไม่ต้องได้รับอนุมัติจากมนุษย์
กล่าวอีกนัยหนึ่ง ระบบ AI ที่ควบคุมทางกายภาพ (เช่น อาวุธ) อาจอันตรายอย่างยิ่งหากเกิดความผิดพลาดหรือถูกตั้งโปรแกรมในทางที่เป็นอันตราย
การสูญเสียการควบคุมของมนุษย์
นักคิดบางคนชี้ว่า หาก AI มีพลังมากกว่าปัจจุบันมาก อาจทำงานในวิธีที่ไม่คาดคิด แม้ AI ปัจจุบันจะไม่มีสติหรือความรู้ตัว แต่ AI ทั่วไปในอนาคต (AGI) อาจมีเป้าหมายที่ไม่สอดคล้องกับค่านิยมของมนุษย์
นักวิทยาศาสตร์ AI ชั้นนำเตือนว่า "ระบบ AI ทั่วไปที่ทรงพลังสูง" อาจปรากฏในอนาคตอันใกล้นี้หากเราไม่เตรียมพร้อม
ผู้ได้รับรางวัลโนเบล Geoffrey Hinton และผู้เชี่ยวชาญอื่น ๆ ยังระบุว่ามีความเสี่ยงเพิ่มขึ้นที่ AI อาจทำร้ายมนุษยชาติหาก AI ขั้นสูงไม่สอดคล้องกับความต้องการของเรา แม้ความเสี่ยงนี้ยังไม่แน่นอน แต่ก็เป็นแรงผลักดันให้มีการเรียกร้องความระมัดระวังอย่างสูง
ผลกระทบด้านพลังงานและสิ่งแวดล้อม
การฝึกและใช้งานโมเดล AI ขนาดใหญ่ใช้ไฟฟ้ามาก ยูเนสโกรายงานว่าการใช้พลังงานประจำปีของ AI สร้างสรรค์เทียบเท่ากับประเทศแอฟริกาขนาดเล็กแห่งหนึ่ง – และกำลังเพิ่มขึ้นอย่างรวดเร็ว
สิ่งนี้อาจทำให้ปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศรุนแรงขึ้นหากเราไม่ใช้วิธีที่เป็นมิตรกับสิ่งแวดล้อม
ความเห็นจากผู้เชี่ยวชาญและเจ้าหน้าที่

ด้วยประเด็นเหล่านี้ ผู้นำและนักวิจัยหลายคนได้ออกมาแสดงความคิดเห็น กลุ่ม ผู้เชี่ยวชาญ AI จำนวนมาก ได้รวมตัวกันในช่วงไม่กี่ปีที่ผ่านมา
พวกเขาเน้นว่า การพัฒนา AI กำลังเร่งรีบ "โดยความปลอดภัยเป็นเรื่องรอง" และปัจจุบันเรายังขาดสถาบันที่จะป้องกันการใช้งานที่ผิดพลาด
มุมมองของผู้นำเทคโนโลยี
แซม อัลท์แมน (ซีอีโอ OpenAI)
เดมิส ฮัสซาบิส (Google DeepMind)
เรากำลังอยู่ใน "การแข่งขันที่ควบคุมไม่ได้" เพื่อสร้าง AI ที่ทรงพลังขึ้นซึ่งแม้แต่ผู้สร้างก็ "ไม่สามารถเข้าใจ ทำนาย หรือควบคุมได้อย่างน่าเชื่อถือ"
— จดหมายเปิดผนึกลงนามโดยผู้เชี่ยวชาญ AI กว่า 1,000 คน (รวมถึง Elon Musk, Steve Wozniak และนักวิจัย AI หลายคน)
การตอบสนองของรัฐบาลและองค์กรระหว่างประเทศ
การตอบสนองของรัฐบาลสหรัฐฯ
ทำเนียบขาวออกคำสั่งบริหารในปี 2023 ระบุว่า AI "มีศักยภาพพิเศษทั้งในด้านสัญญาและอันตราย" และเรียกร้องให้ใช้ "AI อย่างรับผิดชอบ" ผ่านความพยายามระดับสังคมเพื่อบรรเทาความเสี่ยงที่สำคัญ
NIST (สถาบันมาตรฐานและเทคโนโลยีแห่งชาติของสหรัฐฯ) ได้เผยแพร่ กรอบการจัดการความเสี่ยง AI เพื่อแนะนำบริษัทในการสร้าง AI ที่น่าเชื่อถือ
พระราชบัญญัติ AI ของสหภาพยุโรป
สหภาพยุโรปผ่าน พระราชบัญญัติ AI ฉบับแรกของโลก (มีผลบังคับใช้ปี 2024) ห้ามการปฏิบัติที่อันตราย เช่น การให้คะแนนสังคมโดยรัฐบาล และกำหนดการทดสอบเข้มงวดสำหรับ AI ที่มีความเสี่ยงสูง (ในด้านสุขภาพ การบังคับใช้กฎหมาย ฯลฯ)
- ห้ามการปฏิบัติ AI ที่ไม่ยอมรับได้
- ข้อกำหนดเข้มงวดสำหรับระบบ AI ที่มีความเสี่ยงสูง
- ข้อผูกมัดด้านความโปร่งใสสำหรับ AI ทั่วไป
- ค่าปรับหนักสำหรับการไม่ปฏิบัติตาม
ความร่วมมือระดับโลก
ยูเนสโกเผยแพร่คำแนะนำด้านจริยธรรม AI ระดับโลกที่เน้นความยุติธรรม ความโปร่งใส และการคุ้มครองสิทธิมนุษยชนใน AI
กลุ่มอย่าง OECD และสหประชาชาติทำงานด้านหลักการ AI (หลายประเทศได้ลงนาม) บริษัทและมหาวิทยาลัยกำลังจัดตั้งสถาบันและพันธมิตรด้านความปลอดภัย AI เพื่อวิจัยความเสี่ยงระยะยาว
มาตรการป้องกันและการกำกับดูแล

โชคดีที่มีหลายทางแก้ไขที่กำลังดำเนินการอยู่ แนวคิดหลักคือ "ความปลอดภัยของ AI โดยการออกแบบ" บริษัทต่าง ๆ เริ่มสร้างกฎจริยธรรมเข้าไปในกระบวนการพัฒนา AI
ตัวอย่างเช่น ห้องปฏิบัติการ AI ทดสอบโมเดลเพื่อหาความลำเอียงก่อนปล่อย และเพิ่มตัวกรองเนื้อหาเพื่อป้องกันผลลัพธ์ที่ไม่เหมาะสมหรือเท็จ รัฐบาลและสถาบันกำลังจัดทำเป็นกฎหมาย
กรอบการกำกับดูแล
การพัฒนาไม่มีการควบคุม
- ไม่มีข้อกำหนดทดสอบอคติ
- ความโปร่งใสจำกัด
- มาตรการความปลอดภัยไม่สม่ำเสมอ
- แก้ปัญหาแบบตอบโต้
การกำกับดูแลอย่างมีโครงสร้าง
- บังคับตรวจสอบอคติ
- ข้อกำหนดความโปร่งใส
- หลักการความปลอดภัยโดยการออกแบบ
- การจัดการความเสี่ยงเชิงรุก
มาตรการป้องกันในปัจจุบัน
ทางแก้ไขทางเทคนิค
ห้องปฏิบัติการ AI ทดสอบโมเดลเพื่อหาความลำเอียงก่อนปล่อย และเพิ่มตัวกรองเนื้อหาเพื่อป้องกันผลลัพธ์ที่ไม่เหมาะสมหรือเท็จ องค์กรกำหนดมาตรฐานกำลังเผยแพร่แนวทางสำหรับองค์กรในการประเมินและลดความเสี่ยง AI
กรอบกฎหมาย
พระราชบัญญัติ AI ของสหภาพยุโรปห้ามการใช้งานที่อันตรายบางประเภทโดยสิ้นเชิง และจัดประเภทการใช้งานอื่น ๆ เป็น "ความเสี่ยงสูง" (ต้องตรวจสอบ) กรอบจริยธรรม AI ของยูเนสโกเรียกร้องการตรวจสอบความยุติธรรม การป้องกันความปลอดภัยไซเบอร์ และกระบวนการร้องเรียนที่เข้าถึงได้
ความร่วมมือในอุตสาหกรรม
บริษัทและมหาวิทยาลัยกำลังจัดตั้งสถาบันและพันธมิตรด้านความปลอดภัย AI เพื่อวิจัยความเสี่ยงระยะยาว ความร่วมมือภาครัฐ-เอกชนด้านความปลอดภัยและแคมเปญให้ความรู้เกี่ยวกับดีปเฟคกำลังกลายเป็นมาตรฐาน
การมีส่วนร่วมของประชาชน
แคมเปญให้ความรู้เกี่ยวกับความเสี่ยงและประโยชน์ของ AI รวมถึงการลงคะแนนถามประชาชนว่าควรให้เครื่องจักรมีอิสระมากน้อยเพียงใด เพื่อให้ประชาธิปไตยมีส่วนร่วมในการกำกับดูแล AI
เจ้าหน้าที่กำลังเร่งปรับปรุงกฎหมายเกี่ยวกับคำพูดเกลียดชัง ลิขสิทธิ์ และความเป็นส่วนตัวให้ครอบคลุมเนื้อหาที่สร้างโดย AI เช่นเดียวกับที่ผู้เชี่ยวชาญชาวนิวซีแลนด์กล่าวว่า กฎหมายหลายฉบับ "ไม่ได้ออกแบบมาเพื่อ AI สร้างสรรค์" ดังนั้นผู้ร่างกฎหมายจึงกำลังตามให้ทัน
สรุป: มุมมองที่สมดุลเกี่ยวกับความปลอดภัยของ AI
ดังนั้น ปัญญาประดิษฐ์อันตรายหรือไม่? คำตอบมีความซับซ้อน AI ไม่ใช่สิ่งชั่วร้ายโดยธรรมชาติ – มันคือเครื่องมือที่มนุษย์สร้างขึ้น
ในรูปแบบปฏิบัติหลายอย่างในปัจจุบัน AI ได้นำประโยชน์มหาศาลสู่การแพทย์ การศึกษา อุตสาหกรรม และอื่น ๆ (ตามที่องค์กรอย่างยูเนสโกและสหภาพยุโรปเน้นย้ำ)
ในขณะเดียวกัน เกือบทุกคนเห็นพ้องว่า AI อาจเป็นอันตราย ถ้า พลังของมันถูกใช้อย่างผิดวิธีหรือไม่มีการกำกับดูแล
สำหรับผู้เรียนรุ่นเยาว์
มาตรการความปลอดภัย
ความกังวลทั่วไปรวมถึงการละเมิดความเป็นส่วนตัว อคติ ข้อมูลเท็จ การเปลี่ยนแปลงงาน และความเสี่ยงสมมติของ AI ที่มีสติสูงเกินควบคุม
ด้วย "แนวป้องกัน" ที่เหมาะสม – การพัฒนา AI อย่างมีจริยธรรม การกำกับดูแลที่เข้มแข็ง และความตระหนักรู้ของสาธารณะ – เราสามารถนำ AI ไปสู่ความปลอดภัยและทำให้มันเป็นประโยชน์ต่อมนุษยชาติโดยไม่กลายเป็นอันตราย