ความเสี่ยงจากการใช้ปัญญาประดิษฐ์
ปัญญาประดิษฐ์ (AI) นำมาซึ่งประโยชน์มากมาย แต่ก็มีความเสี่ยงหลายประการหากถูกใช้อย่างไม่เหมาะสมหรือขาดการควบคุม ตั้งแต่ปัญหาความปลอดภัยของข้อมูล การบิดเบือนข้อมูล การละเมิดลิขสิทธิ์ ไปจนถึงความเสี่ยงในการทดแทนแรงงาน AI เป็นความท้าทายที่ต้องระบุและจัดการอย่างมีประสิทธิภาพ การเข้าใจความเสี่ยงจากการใช้ AI ช่วยให้บุคคลและธุรกิจสามารถใช้เทคโนโลยีนี้ได้อย่างปลอดภัยและยั่งยืน
ปัญญาประดิษฐ์ (AI) ได้ถักทอเข้าไปในทุกอย่างตั้งแต่ผู้ช่วยบนสมาร์ทโฟนและฟีดโซเชียลมีเดีย ไปจนถึงการดูแลสุขภาพและการขนส่ง เทคโนโลยีเหล่านี้นำมาซึ่งประโยชน์ที่ไม่เคยมีมาก่อน แต่ก็มีความเสี่ยงและความท้าทายที่สำคัญเช่นกัน
ในบทความนี้ เราจะสำรวจร่วมกับ INVIAI ความเสี่ยงจากการใช้ AI ในทุกด้านและทุกประเภทของ AI – ตั้งแต่แชทบอทและอัลกอริทึม ไปจนถึงหุ่นยนต์ – โดยอ้างอิงจากข้อมูลเชิงลึกจากแหล่งทางการและระดับนานาชาติ
- 1. อคติและการเลือกปฏิบัติในระบบ AI
 - 2. อันตรายจากข้อมูลเท็จและดีปเฟค
 - 3. ภัยคุกคามต่อความเป็นส่วนตัวและการเฝ้าระวังมวลชน
 - 4. ความล้มเหลวด้านความปลอดภัยและความเสียหายที่ไม่ได้ตั้งใจ
 - 5. การทดแทนงานและความวุ่นวายทางเศรษฐกิจ
 - 6. การใช้ AI ในทางอาชญากรรม การฉ้อโกง และภัยคุกคามด้านความปลอดภัย
 - 7. การทหารและอาวุธอัตโนมัติ
 - 8. ขาดความโปร่งใสและความรับผิดชอบ
 - 9. การรวมศูนย์อำนาจและความไม่เท่าเทียม
 - 10. ผลกระทบต่อสิ่งแวดล้อมของ AI
 - 11. ความเสี่ยงเชิงมีอยู่และระยะยาว
 - 12. การนำทางอนาคตของ AI อย่างรับผิดชอบ
 
อคติและการเลือกปฏิบัติในระบบ AI
ความเสี่ยงหลักอย่างหนึ่งของ AI คือการฝังรากลึกของอคติและการเลือกปฏิบัติที่ไม่เป็นธรรม โมเดล AI เรียนรู้จากข้อมูลที่อาจสะท้อนอคติหรือความไม่เท่าเทียมในอดีต ส่งผลให้ระบบ AI อาจปฏิบัติต่อผู้คนแตกต่างกันตามเชื้อชาติ เพศ หรือคุณลักษณะอื่น ๆ ในลักษณะที่ส่งเสริมความอยุติธรรม
AI ทั่วไปที่ทำงานผิดพลาดอาจก่อให้เกิดความเสียหายผ่านการตัดสินใจที่มีอคติต่อคุณลักษณะที่ได้รับการคุ้มครอง เช่น เชื้อชาติ เพศ วัฒนธรรม อายุ และความพิการ
— รายงานความปลอดภัย AI ระหว่างประเทศ
องค์กรระดับโลกอย่างยูเนสโกเตือนว่า หากไม่มีมาตรการความเป็นธรรม AI มีความเสี่ยงที่จะ "ทำซ้ำอคติและการเลือกปฏิบัติในโลกจริง กระตุ้นความแตกแยก และคุกคามสิทธิมนุษยชนและเสรีภาพพื้นฐาน" การรับรองว่าระบบ AI ได้รับการฝึกด้วยข้อมูลที่หลากหลายและเป็นตัวแทน พร้อมทั้งตรวจสอบอคติเป็นสิ่งจำเป็นเพื่อป้องกันการเลือกปฏิบัติอัตโนมัติ
อคติในการจ้างงาน
เครื่องมือสรรหาบุคลากร AI อาจเลือกปฏิบัติต่อกลุ่มประชากรบางกลุ่ม
การเลือกปฏิบัติในการให้กู้
อัลกอริทึมทางการเงินอาจปฏิเสธสินเชื่ออย่างไม่เป็นธรรมตามคุณลักษณะที่ได้รับการคุ้มครอง
ความไม่เท่าเทียมในการบังคับใช้กฎหมาย
การบังคับใช้กฎหมายเชิงทำนายอาจเสริมสร้างอคติที่มีอยู่แล้ว

อันตรายจากข้อมูลเท็จและดีปเฟค
ความสามารถของ AI ในการสร้างข้อความ ภาพ และวิดีโอที่สมจริงเกินจริงก่อให้เกิดความกลัวต่อการแพร่กระจายข้อมูลเท็จ AI สร้างสรรค์ สามารถผลิตข่าวปลอม ภาพปลอม หรือวิดีโอดีปเฟคที่น่าเชื่อถือและแยกแยะจากความจริงได้ยาก
ในความเป็นจริง ข้อมูลเท็จและข้อมูลบิดเบือนที่ขับเคลื่อนโดย AI เป็นหนึ่งใน "ความท้าทายที่ใหญ่ที่สุดต่อกระบวนการประชาธิปไตย" โดยเฉพาะอย่างยิ่งเมื่อมีผู้คนหลายพันล้านคนที่จะลงคะแนนเสียงในการเลือกตั้งที่จะมาถึง สื่อสังเคราะห์ เช่น วิดีโอดีปเฟคและเสียงโคลน AI สามารถถูกใช้เป็นอาวุธเพื่อเผยแพร่โฆษณาชวนเชื่อ แอบอ้างบุคคลสาธารณะ หรือกระทำการฉ้อโกง
วิดีโอดีปเฟค
การโคลนเสียง
เจ้าหน้าที่เตือนว่า ผู้ประสงค์ร้ายสามารถใช้ AI เพื่อดำเนินแคมเปญข้อมูลบิดเบือนขนาดใหญ่ ทำให้โซเชียลเน็ตเวิร์กเต็มไปด้วยเนื้อหาเท็จและสร้างความวุ่นวาย ความเสี่ยงคือสภาพแวดล้อมข้อมูลที่ประชาชนไม่สามารถเชื่อถือสิ่งที่เห็นหรือได้ยิน ส่งผลกระทบต่อการสนทนาสาธารณะและประชาธิปไตย

ภัยคุกคามต่อความเป็นส่วนตัวและการเฝ้าระวังมวลชน
การใช้ AI อย่างแพร่หลายก่อให้เกิด ความกังวลเรื่องความเป็นส่วนตัว อย่างรุนแรง ระบบ AI มักต้องการข้อมูลส่วนบุคคลจำนวนมหาศาล – ตั้งแต่ใบหน้าและเสียงของเรา ไปจนถึงพฤติกรรมการช็อปปิ้งและตำแหน่งที่ตั้ง – เพื่อทำงานอย่างมีประสิทธิภาพ หากไม่มีมาตรการป้องกันที่เข้มงวด ข้อมูลเหล่านี้อาจถูกใช้งานผิดหรือถูกเอาเปรียบ
ตัวอย่างเช่น การจดจำใบหน้าและอัลกอริทึมทำนายอาจทำให้เกิด การเฝ้าระวังอย่างแพร่หลาย ติดตามการเคลื่อนไหวของบุคคลทุกย่างก้าวหรือประเมินพฤติกรรมโดยไม่ได้รับความยินยอม
การจดจำใบหน้า
ติดตามบุคคลอย่างต่อเนื่องในที่สาธารณะ
- ติดตามตัวตน
 - วิเคราะห์พฤติกรรม
 
การวิเคราะห์เชิงทำนาย
การวิเคราะห์ AI ที่เปิดเผยรายละเอียดส่วนตัวอย่างลึกซึ้ง
- สถานะสุขภาพ
 - ความเชื่อทางการเมือง
 
การให้คะแนนทางสังคม
การประเมินประชาชนตามรูปแบบพฤติกรรม
- การให้คะแนนเครดิต
 - การปฏิบัติตามสังคม
 
ความเป็นส่วนตัวเป็นสิทธิที่จำเป็นต่อการปกป้องศักดิ์ศรีมนุษย์ ความเป็นอิสระ และความสามารถในการตัดสินใจ ซึ่งต้องได้รับการเคารพระหว่างวงจรชีวิตของระบบ AI
— หน่วยงานคุ้มครองข้อมูล
หากการพัฒนา AI เร็วกว่ากฎระเบียบความเป็นส่วนตัว บุคคลอาจสูญเสียการควบคุมข้อมูลของตนเอง สังคมต้องมั่นใจว่ามีการกำกับดูแลข้อมูลที่เข้มงวด กลไกการยินยอม และเทคนิคการรักษาความเป็นส่วนตัว เพื่อไม่ให้เทคโนโลยี AI กลายเป็นเครื่องมือเฝ้าระวังที่ไร้การควบคุม

ความล้มเหลวด้านความปลอดภัยและความเสียหายที่ไม่ได้ตั้งใจ
แม้ AI จะสามารถตัดสินใจและทำงานทางกายภาพด้วยประสิทธิภาพเหนือมนุษย์ แต่ก็สามารถ ล้มเหลวในรูปแบบที่คาดเดาไม่ได้ นำไปสู่ความเสียหายในโลกจริง เรามอบหมายความรับผิดชอบที่สำคัญต่อความปลอดภัยให้กับ AI มากขึ้น เช่น การขับรถ การวินิจฉัยผู้ป่วย หรือการจัดการโครงข่ายไฟฟ้า แต่ระบบเหล่านี้ไม่สมบูรณ์แบบ
ข้อผิดพลาด ข้อมูลฝึกอบรมที่บกพร่อง หรือสถานการณ์ที่ไม่คาดคิด อาจทำให้ AI ตัดสินใจผิดพลาดอย่างอันตราย รถยนต์ขับเคลื่อนอัตโนมัติอาจจำคนเดินถนนผิด หรือ AI ทางการแพทย์อาจแนะนำการรักษาที่ผิดพลาด ซึ่งอาจมีผลร้ายแรงถึงชีวิต
ยานยนต์อัตโนมัติ
AI ทางการแพทย์
การจัดการโครงข่ายไฟฟ้า
ความเสียหายที่ไม่พึงประสงค์ (ความเสี่ยงด้านความปลอดภัย) รวมถึงช่องโหว่ต่อการโจมตี (ความเสี่ยงด้านความปลอดภัย) ควรหลีกเลี่ยงและแก้ไขตลอดวงจรชีวิตของระบบ AI เพื่อความปลอดภัยและความมั่นคงของมนุษย์ สิ่งแวดล้อม และระบบนิเวศ
— แนวทาง AI ระหว่างประเทศ
กล่าวอีกนัยหนึ่ง ระบบ AI ต้องได้รับการทดสอบ ตรวจสอบ และสร้างด้วยระบบป้องกันความล้มเหลวอย่างเข้มงวดเพื่อลดโอกาสเกิดข้อผิดพลาด การพึ่งพา AI มากเกินไปก็มีความเสี่ยง – หากมนุษย์เชื่อมั่นในการตัดสินใจอัตโนมัติอย่างไม่ลืมหูลืมตา อาจไม่สามารถแทรกแซงได้ทันเมื่อเกิดปัญหา
ดังนั้น การรักษา การควบคุมโดยมนุษย์ จึงเป็นสิ่งสำคัญ ในการใช้งานที่มีความเสี่ยงสูง (เช่น การดูแลสุขภาพหรือการขนส่ง) การตัดสินใจขั้นสุดท้ายควรอยู่ภายใต้การพิจารณาของมนุษย์ การรักษาความปลอดภัยและความน่าเชื่อถือของ AI เป็นความท้าทายอย่างต่อเนื่องที่ต้องการการออกแบบอย่างรอบคอบและวัฒนธรรมความรับผิดชอบจากผู้พัฒนา AI

การทดแทนงานและความวุ่นวายทางเศรษฐกิจ
ผลกระทบเชิงเปลี่ยนแปลงของ AI ต่อเศรษฐกิจเป็นดาบสองคม ในด้านหนึ่ง AI สามารถเพิ่มผลผลิตและสร้างอุตสาหกรรมใหม่ทั้งหมดได้ แต่ในอีกด้านหนึ่ง AI ก่อให้เกิด ความเสี่ยงในการทดแทนแรงงานหลายล้านคน ผ่านระบบอัตโนมัติ
งานหลายประเภท – โดยเฉพาะงานที่เกี่ยวข้องกับงานประจำซ้ำซากหรือข้อมูลที่วิเคราะห์ง่าย – มีความเสี่ยงที่จะถูกแทนที่โดยอัลกอริทึมและหุ่นยนต์ AI
งานแบบดั้งเดิม
- งานประจำซ้ำซาก
 - บทบาทการวิเคราะห์ข้อมูล
 - งานแรงงานมือ
 - งานบริการลูกค้าพื้นฐาน
 
ทักษะใหม่ที่ต้องการ
- ทักษะการทำงานร่วมกับ AI
 - การแก้ปัญหาเชิงสร้างสรรค์
 - การจัดการเทคนิค AI
 - บริการที่เน้นมนุษย์เป็นศูนย์กลาง
 
แม้ว่าเศรษฐกิจอาจสร้างบทบาทใหม่ ๆ (ซึ่งอาจมากกว่าจำนวนงานที่สูญเสียในระยะยาว) การเปลี่ยนผ่านนี้จะเป็นเรื่องยากสำหรับหลายคน งานที่ได้มักต้องการทักษะที่แตกต่างและสูงขึ้น หรือกระจุกตัวในศูนย์เทคโนโลยีบางแห่ง ทำให้แรงงานที่ถูกทดแทนอาจประสบปัญหาในการหางานใหม่
ความไม่สอดคล้องกันระหว่างทักษะที่แรงงานมีและทักษะที่บทบาทใหม่ ๆ ที่ขับเคลื่อนด้วย AI ต้องการ อาจนำไปสู่การว่างงานและความไม่เท่าเทียมที่สูงขึ้นหากไม่ได้รับการแก้ไข นักนโยบายและนักวิจัยเตือนว่าความก้าวหน้าของ AI อย่างรวดเร็วอาจนำไปสู่ "ความวุ่นวายในตลาดแรงงาน และความไม่เท่าเทียมทางเศรษฐกิจ" ในระดับระบบ
ผลกระทบทางเพศ
สัดส่วนงานที่ผู้หญิงทำมีความเสี่ยงสูงต่อระบบอัตโนมัติ
ประเทศกำลังพัฒนา
แรงงานในประเทศกำลังพัฒนามีความเสี่ยงสูงต่อระบบอัตโนมัติ
หากไม่มีมาตรการเชิงรุก เช่น โปรแกรมฝึกอบรมใหม่ การศึกษาในทักษะ AI และระบบความปลอดภัยทางสังคม AI อาจขยายช่องว่างทางสังคมและเศรษฐกิจ สร้างเศรษฐกิจที่ขับเคลื่อนด้วย AI ที่ผู้ครอบครองเทคโนโลยีได้รับประโยชน์มากที่สุด
การเตรียมแรงงานรับมือผลกระทบของ AI เป็นสิ่งสำคัญเพื่อให้ประโยชน์จากระบบอัตโนมัติถูกแบ่งปันอย่างกว้างขวางและป้องกันความวุ่นวายทางสังคมจากการสูญเสียงานอย่างแพร่หลาย

การใช้ AI ในทางอาชญากรรม การฉ้อโกง และภัยคุกคามด้านความปลอดภัย
AI เป็นเครื่องมือทรงพลังที่สามารถถูกใช้เพื่อวัตถุประสงค์ชั่วร้ายได้ง่ายพอ ๆ กับวัตถุประสงค์ดี อาชญากรไซเบอร์และผู้ไม่หวังดีอื่น ๆ กำลังใช้ AI เพื่อเพิ่มประสิทธิภาพการโจมตีของพวกเขา
ตัวอย่างเช่น AI สามารถสร้างอีเมลฟิชชิ่งหรือข้อความเสียงที่ปรับแต่งเฉพาะบุคคล (โดยการโคลนเสียงของใครบางคน) เพื่อหลอกลวงให้เปิดเผยข้อมูลสำคัญหรือโอนเงิน นอกจากนี้ยังสามารถใช้ในการแฮ็กอัตโนมัติโดยค้นหาช่องโหว่ของซอฟต์แวร์ในวงกว้าง หรือพัฒนาแรนซัมแวร์ที่ปรับตัวเพื่อหลบเลี่ยงการตรวจจับ
ฟิชชิ่งที่ขับเคลื่อนด้วย AI
การแฮ็กอัตโนมัติ
มัลแวร์ปรับตัว
ผู้ประสงค์ร้ายสามารถใช้ AI เพื่อดำเนินการข้อมูลบิดเบือนและปฏิบัติการชักจูงขนาดใหญ่ การฉ้อโกง และกลโกง
— รายงานที่รัฐบาลสหราชอาณาจักรมอบหมาย
ศูนย์ความปลอดภัย AI ระบุว่าการใช้ AI ในทางที่เป็นอันตรายเป็นความกังวลหลัก โดยยกตัวอย่างสถานการณ์ที่ระบบ AI ถูกใช้โดยอาชญากรเพื่อดำเนินการ การฉ้อโกงและการโจมตีไซเบอร์ขนาดใหญ่
ความเร็ว ขนาด และความซับซ้อนที่ AI มอบให้อาจทำให้การป้องกันแบบดั้งเดิมล้มเหลว – ลองนึกภาพการโทรหลอกลวงที่สร้างโดย AI หลายพันสาย หรือวิดีโอดีปเฟคที่โจมตีความปลอดภัยของบริษัทในวันเดียว
เมื่อเครื่องมือ AI เข้าถึงได้ง่ายขึ้น อุปสรรคในการดำเนินกิจกรรมชั่วร้ายเหล่านี้ลดลง อาจนำไปสู่การเพิ่มขึ้นของอาชญากรรมที่เสริมด้วย AI
สิ่งนี้จำเป็นต้องมีแนวทางใหม่ในการรักษาความปลอดภัยไซเบอร์และการบังคับใช้กฎหมาย เช่น ระบบ AI ที่สามารถ ตรวจจับดีปเฟคหรือพฤติกรรมผิดปกติ และกรอบกฎหมายที่ปรับปรุงเพื่อให้ผู้กระทำผิดรับผิดชอบ โดยสรุป เราต้องคาดการณ์ว่า ความสามารถใดที่ AI มอบให้กับผู้ใช้ประโยชน์ ก็อาจมอบให้กับอาชญากรเช่นกัน – และเตรียมพร้อมตามนั้น

การทหารและอาวุธอัตโนมัติ
อาจเป็นความเสี่ยงที่น่ากลัวที่สุดของ AI ที่เกิดขึ้นในบริบทของสงครามและความมั่นคงแห่งชาติ AI กำลังถูกผนวกเข้ากับระบบทหารอย่างรวดเร็ว เพิ่มโอกาสของ อาวุธอัตโนมัติ ("หุ่นยนต์นักฆ่า") และการตัดสินใจที่ขับเคลื่อนด้วย AI ในการสู้รบ
เทคโนโลยีเหล่านี้สามารถตอบสนองได้เร็วกว่ามนุษย์ แต่การถอดการควบคุมของมนุษย์ออกจากการใช้กำลังรุนแรงนั้นเต็มไปด้วยอันตราย มีความเสี่ยงว่าอาวุธที่ควบคุมโดย AI อาจเลือกเป้าหมายผิด หรือทำให้ความขัดแย้งบานปลายในทางที่ไม่คาดคิด
ข้อผิดพลาดในการเลือกเป้าหมาย
อาวุธ AI อาจจำแนกพลเรือนผิดเป็นนักรบ
- การระบุผิดพลาด
 - พลเรือนเสียชีวิต
 
การบานปลายของความขัดแย้ง
ระบบอัตโนมัติอาจทำให้สถานการณ์บานปลายเกินความตั้งใจของมนุษย์
- วงจรตอบสนองรวดเร็ว
 - การบานปลายที่ควบคุมไม่ได้
 
หากประเทศต่าง ๆ แข่งขันกันติดตั้งอาวุธอัจฉริยะ อาจกระตุ้นการแข่งขันอาวุธที่ทำลายเสถียรภาพ นอกจากนี้ AI ยังสามารถถูกใช้ในสงครามไซเบอร์เพื่อโจมตีโครงสร้างพื้นฐานสำคัญโดยอัตโนมัติ หรือเผยแพร่โฆษณาชวนเชื่อ ทำให้เส้นแบ่งระหว่างสันติภาพและความขัดแย้งพร่าเลือน
การพัฒนา AI ในสงคราม หากถูกควบคุมโดยกลุ่มเล็ก ๆ อาจถูกบังคับใช้กับประชาชนโดยที่พวกเขาไม่มีสิทธิ์มีส่วนร่วมในการตัดสินใจ ส่งผลกระทบต่อความมั่นคงและจริยธรรมระดับโลก
— สหประชาชาติ
ระบบอาวุธอัตโนมัติยังสร้าง ปัญหาทางกฎหมายและจริยธรรม – ใครจะรับผิดชอบหากโดรน AI ฆ่าพลเรือนโดยผิดพลาด? ระบบเหล่านี้จะปฏิบัติตามกฎหมายมนุษยธรรมระหว่างประเทศอย่างไร?
คำถามที่ยังไม่มีคำตอบเหล่านี้นำไปสู่การเรียกร้องให้มีการห้ามหรือควบคุมอย่างเข้มงวดต่ออาวุธ AI บางประเภท การรักษาการควบคุมของมนุษย์เหนือ AI ที่สามารถตัดสินใจเรื่องชีวิตและความตายถือเป็นเรื่องสำคัญอย่างยิ่ง หากไม่มีการควบคุม ความเสี่ยงไม่เพียงแต่เป็นความผิดพลาดที่น่าเศร้าในสนามรบ แต่ยังเป็นการลดทอนความรับผิดชอบของมนุษย์ในสงคราม

ขาดความโปร่งใสและความรับผิดชอบ
ระบบ AI ขั้นสูงส่วนใหญ่ในปัจจุบันทำงานเหมือน "กล่องดำ" – ตรรกะภายในมักไม่โปร่งใสแม้แต่กับผู้สร้างเอง การขาดความโปร่งใสนี้สร้างความเสี่ยงที่การตัดสินใจของ AI ไม่สามารถอธิบายหรือท้าทายได้ ซึ่งเป็นปัญหาร้ายแรงในสาขาเช่น กฎหมาย การเงิน หรือการดูแลสุขภาพ ที่การอธิบายเหตุผลเป็นข้อกำหนดทางกฎหมายหรือจริยธรรม
หาก AI ปฏิเสธสินเชื่อ วินิจฉัยโรค หรือกำหนดว่าใครจะได้รับการปล่อยตัวจากคุก เราก็อยากรู้เหตุผลโดยธรรมชาติ กับโมเดล AI บางประเภท (โดยเฉพาะเครือข่ายประสาทเทียมที่ซับซ้อน) การให้เหตุผลที่ชัดเจนเป็นเรื่องยาก
การตัดสินใจทางกฎหมาย
บริการทางการเงิน
การดูแลสุขภาพ
การขาดความโปร่งใสอาจทำลายโอกาสในการท้าทายการตัดสินใจที่เกิดจากระบบ AI อย่างมีประสิทธิภาพ และอาจละเมิดสิทธิในการพิจารณาคดีที่เป็นธรรมและการเยียวยาที่มีประสิทธิผล
— ยูเนสโก
กล่าวอีกนัยหนึ่ง หากผู้ใช้หรือหน่วยงานกำกับดูแลไม่สามารถเข้าใจวิธีที่ AI ตัดสินใจได้ ก็แทบจะเป็นไปไม่ได้เลยที่จะทำให้ใครรับผิดชอบต่อความผิดพลาดหรืออคติที่เกิดขึ้น
เพื่อแก้ไขปัญหานี้ ผู้เชี่ยวชาญสนับสนุนเทคนิค AI ที่อธิบายได้ การตรวจสอบอย่างเข้มงวด และข้อกำหนดทางกฎหมายที่การตัดสินใจของ AI ต้องสามารถตรวจสอบย้อนกลับไปยังผู้มีอำนาจมนุษย์ได้
แนวทางจริยธรรมระดับโลกยืนยันว่า ควร "สามารถระบุความรับผิดชอบทางจริยธรรมและกฎหมาย" สำหรับพฤติกรรมของระบบ AI ได้เสมอ มนุษย์ต้องยังคงรับผิดชอบสูงสุด และ AI ควรช่วยสนับสนุน ไม่ใช่แทนที่การตัดสินใจของมนุษย์ในเรื่องที่ละเอียดอ่อน มิฉะนั้น เราเสี่ยงที่จะสร้างโลกที่การตัดสินใจสำคัญถูกทำโดยเครื่องจักรที่ไม่สามารถเข้าใจได้ ซึ่งเป็นสูตรของความอยุติธรรม

การรวมศูนย์อำนาจและความไม่เท่าเทียม
การปฏิวัติ AI ไม่เกิดขึ้นอย่างเท่าเทียมทั่วโลก – บริษัทและประเทศจำนวนน้อยครอบงำการพัฒนา AI ขั้นสูง ซึ่งนำมาซึ่งความเสี่ยงของตัวเอง
โมเดล AI ขั้นสูงต้องการข้อมูล ทักษะ และทรัพยากรคอมพิวเตอร์จำนวนมหาศาล ซึ่งมีเพียงบริษัทยักษ์ใหญ่ด้านเทคโนโลยี (และรัฐบาลที่มีงบประมาณสูง) เท่านั้นที่มี
สิ่งนี้นำไปสู่ห่วงโซ่อุปทานที่รวมศูนย์อย่างสูงและบูรณาการระดับโลกที่เอื้อประโยชน์ต่อบริษัทและประเทศจำนวนน้อย
— เวิลด์อีโคโนมิกฟอรัม
การผูกขาดข้อมูล
ชุดข้อมูลขนาดใหญ่ที่ควบคุมโดยหน่วยงานจำนวนน้อย
ทรัพยากรคอมพิวเตอร์
โครงสร้างพื้นฐานราคาแพงที่เข้าถึงได้เฉพาะบริษัทยักษ์ใหญ่ด้านเทคโนโลยี
การรวมตัวของผู้เชี่ยวชาญ
นักวิจัย AI ชั้นนำรวมตัวอยู่ในองค์กรจำนวนน้อย
การรวมศูนย์อำนาจ AI ดังกล่าวอาจแปลเป็น การควบคุมแบบผูกขาด เทคโนโลยี AI จำกัดการแข่งขันและทางเลือกของผู้บริโภค และเพิ่มความเสี่ยงที่ความสำคัญของบริษัทหรือประเทศจำนวนน้อยจะกำหนดทิศทาง AI โดยไม่คำนึงถึงประโยชน์สาธารณะ
ความไม่สมดุลนี้อาจทำให้ความไม่เท่าเทียมทั่วโลกแย่ลง: ประเทศและบริษัทร่ำรวยก้าวหน้าโดยใช้ AI ขณะที่ชุมชนยากจนขาดการเข้าถึงเครื่องมือใหม่และประสบกับการสูญเสียงานโดยไม่ได้รับประโยชน์จาก AI
นอกจากนี้ อุตสาหกรรม AI ที่รวมศูนย์อาจขัดขวางนวัตกรรม (หากผู้มาใหม่ไม่สามารถแข่งขันกับทรัพยากรของผู้เล่นเดิม) และก่อให้เกิดความเสี่ยงด้านความปลอดภัย (หากโครงสร้างพื้นฐาน AI สำคัญถูกควบคุมโดยหน่วยงานจำนวนน้อย กลายเป็นจุดล้มเหลวหรือถูกแทรกแซงได้ง่าย)
การแก้ไขความเสี่ยงนี้ต้องการความร่วมมือระหว่างประเทศและอาจต้องมีกฎระเบียบใหม่เพื่อกระจายการพัฒนา AI – เช่น สนับสนุนการวิจัยแบบเปิด การเข้าถึงข้อมูลและทรัพยากรคอมพิวเตอร์อย่างเป็นธรรม และการกำหนดนโยบาย (เช่น กฎหมาย AI ของสหภาพยุโรป) เพื่อป้องกันการปฏิบัติที่ไม่เหมาะสมโดย "ผู้ควบคุม AI" ภูมิทัศน์ AI ที่ครอบคลุมมากขึ้นจะช่วยให้ประโยชน์ของ AI ถูกแบ่งปันทั่วโลก แทนที่จะขยายช่องว่างระหว่างผู้มีและผู้ไม่มีเทคโนโลยี

ผลกระทบต่อสิ่งแวดล้อมของ AI
มักถูกมองข้ามในการพูดคุยเกี่ยวกับความเสี่ยงของ AI คือ รอยเท้าทางสิ่งแวดล้อม การพัฒนา AI โดยเฉพาะ การฝึกโมเดลแมชชีนเลิร์นนิงขนาดใหญ่ ใช้ไฟฟ้าและพลังการประมวลผลจำนวนมหาศาล
ศูนย์ข้อมูลที่เต็มไปด้วยเซิร์ฟเวอร์ที่ใช้พลังงานสูงนับพันเครื่องจำเป็นสำหรับการประมวลผลข้อมูลจำนวนมหาศาลที่ระบบ AI เรียนรู้จาก นั่นหมายความว่า AI อาจมีส่วนทำให้เกิด การปล่อยก๊าซคาร์บอนไดออกไซด์และการเปลี่ยนแปลงสภาพภูมิอากาศ โดยทางอ้อม
เมื่อการลงทุนใน AI เพิ่มขึ้น การปล่อยก๊าซจากการใช้งานโมเดล AI คาดว่าจะเพิ่มขึ้นอย่างรวดเร็ว – รายงานคาดการณ์ว่า ระบบ AI ชั้นนำอาจปล่อยก๊าซคาร์บอนรวมกันมากกว่า 100 ล้านตันต่อปี ซึ่งสร้างแรงกดดันอย่างมากต่อโครงสร้างพื้นฐานพลังงาน
เพื่อให้เห็นภาพ ศูนย์ข้อมูลที่ขับเคลื่อน AI กำลังเพิ่มการใช้ไฟฟ้า "เร็วกว่าอัตราการเพิ่มขึ้นโดยรวมของการใช้ไฟฟ้าถึงสี่เท่า"
การใช้พลังงาน
การใช้น้ำ
ขยะอิเล็กทรอนิกส์
นอกจากการปล่อยก๊าซคาร์บอนแล้ว AI ยังใช้น้ำจำนวนมากสำหรับการระบายความร้อนและสร้างขยะอิเล็กทรอนิกส์จากการอัปเกรดฮาร์ดแวร์อย่างรวดเร็ว หากปล่อยไว้โดยไม่มีการควบคุม ผลกระทบต่อสิ่งแวดล้อมของ AI อาจทำลายความพยายามด้านความยั่งยืนทั่วโลก
ความเสี่ยงนี้เรียกร้องให้ทำให้ AI มีประสิทธิภาพด้านพลังงานมากขึ้น และใช้แหล่งพลังงานที่สะอาดกว่า นักวิจัยกำลังพัฒนาเทคนิค AI สีเขียวเพื่อลดการใช้พลังงาน และบางบริษัทได้ให้คำมั่นว่าจะชดเชยต้นทุนคาร์บอนของ AI อย่างไรก็ตาม นี่ยังคงเป็นความกังวลเร่งด่วนที่ ความเร่งรีบสู่ AI อาจมีราคาทางสิ่งแวดล้อมสูง การสร้างสมดุลระหว่างความก้าวหน้าทางเทคโนโลยีกับความรับผิดชอบต่อสิ่งแวดล้อมเป็นอีกหนึ่งความท้าทายที่สังคมต้องเผชิญเมื่อเรานำ AI มาใช้ในทุกที่

ความเสี่ยงเชิงมีอยู่และระยะยาว
นอกเหนือจากความเสี่ยงทันทีแล้ว ผู้เชี่ยวชาญบางคนเตือนถึงความเสี่ยง เชิงสมมติฐานและระยะยาว จาก AI – รวมถึงความเป็นไปได้ของ AI ขั้นสูงที่เติบโตเกินการควบคุมของมนุษย์ แม้ระบบ AI ในปัจจุบันจะมีความสามารถจำกัด แต่มีการวิจัยอย่างต่อเนื่องเพื่อพัฒนา AI ทั่วไป ที่อาจมีประสิทธิภาพเหนือมนุษย์ในหลายด้าน
สิ่งนี้ก่อให้เกิดคำถามซับซ้อน: หาก AI กลายเป็นอัจฉริยะหรืออิสระมากขึ้น มันอาจทำในสิ่งที่คุกคามการดำรงอยู่ของมนุษยชาติได้หรือไม่? แม้ฟังดูเหมือนนิยายวิทยาศาสตร์ บุคคลสำคัญในวงการเทคโนโลยีได้แสดงความกังวลเกี่ยวกับสถานการณ์ "AI นอกกรอบ" และรัฐบาลต่าง ๆ ก็กำลังให้ความสนใจอย่างจริงจัง
ผู้เชี่ยวชาญมีมุมมองที่แตกต่างกันเกี่ยวกับความเสี่ยงที่มนุษย์จะสูญเสียการควบคุม AI ในลักษณะที่อาจนำไปสู่ผลลัพธ์หายนะ
— รายงานความปลอดภัย AI ระหว่างประเทศ
ความเห็นทางวิทยาศาสตร์ยังไม่เป็นเอกฉันท์ – บางคนเชื่อว่า AI อัจฉริยะขั้นสูงยังห่างไกลหลายสิบปีหรือสามารถควบคุมให้สอดคล้องกับค่านิยมมนุษย์ได้ ขณะที่บางคนเห็นว่ามีโอกาสเล็กน้อยแต่ไม่เป็นศูนย์ที่จะเกิดผลลัพธ์หายนะ
สถานการณ์ความเสี่ยงเชิงมีอยู่ที่เป็นไปได้
- AI แสวงหาวัตถุประสงค์ที่ไม่สอดคล้องกับค่านิยมมนุษย์
 - ความก้าวหน้าของความสามารถ AI อย่างรวดเร็วและไร้การควบคุม
 - การสูญเสียอำนาจการตัดสินใจของมนุษย์ในเรื่องสำคัญ
 - ระบบ AI ปรับแต่งเพื่อวัตถุประสงค์ที่เป็นอันตราย
 
มาตรการความปลอดภัยระยะยาว
- การวิจัยการปรับ AI ให้สอดคล้องกับเป้าหมาย
 - ข้อตกลงระหว่างประเทศเกี่ยวกับการวิจัย AI ที่มีความเสี่ยงสูง
 - การรักษาการควบคุมของมนุษย์เมื่อ AI มีความสามารถมากขึ้น
 - การจัดตั้งกรอบการกำกับดูแล AI ระดับโลก
 
โดยสรุป มีการยอมรับว่า ความเสี่ยงเชิงมีอยู่จาก AI แม้จะห่างไกล แต่ ไม่สามารถละเลยได้โดยสิ้นเชิง ผลลัพธ์ดังกล่าวอาจเกิดจาก AI ที่แสวงหาวัตถุประสงค์โดยไม่คำนึงถึงความเป็นอยู่ที่ดีของมนุษย์ (ตัวอย่างคลาสสิกคือ AI ที่หากถูกตั้งโปรแกรมผิด อาจตัดสินใจทำสิ่งที่เป็นอันตรายในวงกว้างเพราะขาดสามัญสำนึกหรือข้อจำกัดทางศีลธรรม)
แม้ AI ในปัจจุบันจะยังไม่มีอำนาจในระดับนั้น แต่ ความก้าวหน้าของ AI มีความรวดเร็วและไม่แน่นอน ซึ่งเป็นปัจจัยเสี่ยงในตัวเอง
การเตรียมพร้อมสำหรับความเสี่ยงระยะยาวหมายถึงการลงทุนในการวิจัยการปรับ AI ให้สอดคล้องกับค่านิยมมนุษย์ การจัดทำข้อตกลงระหว่างประเทศเกี่ยวกับการวิจัย AI ที่มีความเสี่ยงสูง (เช่นเดียวกับสนธิสัญญาอาวุธนิวเคลียร์หรือชีวภาพ) และการรักษาการควบคุมของมนุษย์เมื่อระบบ AI มีความสามารถมากขึ้น
อนาคตของ AI มีความหวังอย่างยิ่งใหญ่ แต่ก็มี ความไม่แน่นอน – และความรอบคอบบ่งชี้ว่าเราควรพิจารณาความเสี่ยงที่มีโอกาสต่ำแต่ผลกระทบสูงในการวางแผนระยะยาว

การนำทางอนาคตของ AI อย่างรับผิดชอบ
AI มักถูกเปรียบเทียบกับเครื่องยนต์ทรงพลังที่สามารถขับเคลื่อนมนุษยชาติไปข้างหน้า – แต่หากไม่มีเบรกและพวงมาลัย เครื่องยนต์นั้นอาจออกนอกเส้นทาง ตามที่เราเห็น ความเสี่ยงจากการใช้ AI มี หลายมิติ ตั้งแต่ปัญหาเฉพาะหน้า เช่น อัลกอริทึมที่มีอคติ ข่าวปลอม การละเมิดความเป็นส่วนตัว และความวุ่นวายทางงาน ไปจนถึงความท้าทายทางสังคมที่กว้างขึ้น เช่น ภัยคุกคามด้านความปลอดภัย การตัดสินใจแบบ "กล่องดำ" การผูกขาดของบิ๊กเทค ความตึงเครียดด้านสิ่งแวดล้อม และแม้แต่เงามืดระยะไกลของการสูญเสียการควบคุมต่อ AI อัจฉริยะขั้นสูง
รัฐบาล องค์กรระหว่างประเทศ ผู้นำอุตสาหกรรม และนักวิจัยกำลังร่วมมือกันมากขึ้นเพื่อแก้ไขปัญหาเหล่านี้ – เช่น ผ่านกรอบงานต่าง ๆ เช่น:
- กรอบการจัดการความเสี่ยง AI ของ NIST สหรัฐอเมริกา (เพื่อเพิ่มความน่าเชื่อถือของ AI)
 - คำแนะนำจริยธรรม AI ระดับโลกของยูเนสโก
 - พระราชบัญญัติ AI ของสหภาพยุโรป
 
ความพยายามเหล่านี้มุ่งหวังที่จะ เพิ่มประโยชน์ของ AI ในขณะที่ลดผลเสียให้น้อยที่สุด เพื่อให้ AI บริการมนุษยชาติ ไม่ใช่มนุษยชาติบริการ AI
การเข้าใจความเสี่ยงของ AI คือก้าวแรกในการจัดการกับมัน โดยการติดตามข้อมูลและมีส่วนร่วมในการพัฒนาและการใช้ AI เราสามารถช่วยนำเทคโนโลยีเปลี่ยนแปลงนี้ไปในทิศทางที่ปลอดภัย ยุติธรรม และเป็นประโยชน์สำหรับทุกคน