ปัญญาประดิษฐ์ (AI) ได้กลายเป็นส่วนหนึ่งของทุกอย่าง ตั้งแต่ผู้ช่วยในสมาร์ทโฟน ฟีดโซเชียลมีเดีย ไปจนถึงการดูแลสุขภาพและการขนส่ง เทคโนโลยีเหล่านี้นำมาซึ่งประโยชน์ที่ไม่เคยมีมาก่อน แต่ก็มีความเสี่ยงและความท้าทายที่สำคัญเช่นกัน

ผู้เชี่ยวชาญและองค์กรระดับโลกเตือนว่า หากไม่มีกรอบจริยธรรมที่เหมาะสม AI อาจ สะท้อนอคติและการเลือกปฏิบัติในโลกจริง ส่งผลกระทบต่อสิ่งแวดล้อม คุกคามสิทธิมนุษยชน และเพิ่มความไม่เท่าเทียมที่มีอยู่

ในบทความนี้ เราจะสำรวจร่วมกับ INVIAI ความเสี่ยงจากการใช้ AI ในทุกด้านและทุกประเภทของ AI – ตั้งแต่แชทบอทและอัลกอริทึมไปจนถึงหุ่นยนต์ – โดยอ้างอิงจากข้อมูลเชิงลึกจากแหล่งข้อมูลทางการและระดับนานาชาติ

อคติและการเลือกปฏิบัติในระบบ AI

ความเสี่ยงสำคัญอย่างหนึ่งของ AI คือการฝังรากลึกของอคติและการเลือกปฏิบัติที่ไม่เป็นธรรม โมเดล AI เรียนรู้จากข้อมูลที่อาจสะท้อนอคติหรือความไม่เท่าเทียมในอดีต ส่งผลให้ระบบ AI อาจปฏิบัติต่อผู้คนแตกต่างกันตามเชื้อชาติ เพศ หรือคุณลักษณะอื่น ๆ ในลักษณะที่ส่งเสริมความอยุติธรรม

ตัวอย่างเช่น “AI ทั่วไปที่ทำงานผิดพลาดอาจก่อให้เกิดความเสียหายผ่านการตัดสินใจที่มีอคติต่อคุณลักษณะที่ได้รับการคุ้มครอง เช่น เชื้อชาติ เพศ วัฒนธรรม อายุ และความพิการ” ตามรายงานความปลอดภัย AI ระดับนานาชาติ

อัลกอริทึมที่มีอคติซึ่งใช้ในการจ้างงาน การให้สินเชื่อ หรือการบังคับใช้กฎหมาย ได้ก่อให้เกิด ผลลัพธ์ที่ไม่เท่าเทียมและเสียเปรียบกลุ่มใดกลุ่มหนึ่งอย่างไม่เป็นธรรม องค์กรระดับโลกอย่างยูเนสโกเตือนว่า หากไม่มีมาตรการความเป็นธรรม AI มีความเสี่ยงที่จะ “สะท้อนอคติและการเลือกปฏิบัติในโลกจริง เพิ่มความแตกแยก และคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน” การฝึกสอนระบบ AI ด้วยข้อมูลที่หลากหลายและเป็นตัวแทน พร้อมทั้งตรวจสอบอคติอย่างเข้มงวดจึงเป็นสิ่งจำเป็นเพื่อป้องกันการเลือกปฏิบัติอัตโนมัติ

อคติและการเลือกปฏิบัติในระบบ AI

อันตรายจากข้อมูลเท็จและดีปเฟค

ความสามารถของ AI ในการสร้างข้อความ ภาพ และวิดีโอที่สมจริงเกินจริงก่อให้เกิดความกังวลเกี่ยวกับการแพร่กระจายข้อมูลเท็จ AI สร้างสรรค์ สามารถผลิตข่าวปลอม ภาพปลอม หรือวิดีโอดีปเฟคที่แยกแยะจากความจริงได้ยาก

รายงานความเสี่ยงโลก 2024 ของเวิลด์อีโคโนมิกฟอรัม ระบุว่า “ข้อมูลที่ถูกบิดเบือนและปลอมแปลง” เป็น ความเสี่ยงระดับโลกที่รุนแรงที่สุดในระยะสั้น โดยชี้ว่า AI กำลัง “ขยายข้อมูลที่ถูกบิดเบือนและบิดเบี้ยวซึ่งอาจทำให้สังคมไม่มั่นคง”

ในความเป็นจริง ข้อมูลเท็จและการบิดเบือนที่ขับเคลื่อนโดย AI เป็นหนึ่งใน “ความท้าทายที่ใหญ่ที่สุดต่อกระบวนการประชาธิปไตย” โดยเฉพาะอย่างยิ่งเมื่อมีผู้คนหลายพันล้านคนที่จะลงคะแนนเสียงในการเลือกตั้งครั้งต่อไป สื่อสังเคราะห์ เช่น วิดีโอดีปเฟคและเสียงโคลน AI อาจถูกใช้เป็นอาวุธในการเผยแพร่โฆษณาชวนเชื่อ แอบอ้างบุคคลสาธารณะ หรือกระทำการฉ้อโกง

เจ้าหน้าที่เตือนว่า ผู้ประสงค์ร้ายสามารถใช้ AI ในการดำเนินแคมเปญข้อมูลเท็จขนาดใหญ่ ทำให้โซเชียลมีเดียเต็มไปด้วยเนื้อหาปลอมและสร้างความวุ่นวาย ความเสี่ยงคือสภาพแวดล้อมข้อมูลที่ประชาชนไม่สามารถเชื่อถือสิ่งที่เห็นหรือได้ยิน ส่งผลกระทบต่อการสนทนาสาธารณะและประชาธิปไตย

อันตรายจากข้อมูลเท็จและดีปเฟคใน AI

ภัยคุกคามต่อความเป็นส่วนตัวและการเฝ้าระวังจำนวนมาก

การใช้ AI อย่างแพร่หลายก่อให้เกิดความกังวลอย่างรุนแรงเกี่ยวกับ ความเป็นส่วนตัว ระบบ AI มักต้องการข้อมูลส่วนบุคคลจำนวนมหาศาล – ตั้งแต่ใบหน้าและเสียง ไปจนถึงพฤติกรรมการช็อปปิ้งและตำแหน่งที่ตั้ง – เพื่อให้ทำงานได้อย่างมีประสิทธิภาพ หากไม่มีมาตรการป้องกันที่เข้มงวด ข้อมูลเหล่านี้อาจถูกนำไปใช้ในทางที่ผิดหรือถูกเอาเปรียบ

ตัวอย่างเช่น การจดจำใบหน้าและอัลกอริทึมทำนายอาจทำให้เกิด การเฝ้าระวังอย่างกว้างขวาง ติดตามการเคลื่อนไหวของบุคคลทุกย่างก้าวหรือประเมินพฤติกรรมโดยไม่ได้รับความยินยอม คำแนะนำด้านจริยธรรม AI ของยูเนสโกเตือนอย่างชัดเจนว่า “ระบบ AI ไม่ควรถูกใช้เพื่อการให้คะแนนทางสังคมหรือการเฝ้าระวังจำนวนมาก” การใช้งานเช่นนี้ถือเป็นความเสี่ยงที่ไม่ยอมรับได้ในวงกว้าง

นอกจากนี้ การวิเคราะห์ข้อมูลส่วนบุคคลโดย AI อาจเปิดเผยรายละเอียดส่วนตัวลึกซึ้ง เช่น สถานะสุขภาพหรือความเชื่อทางการเมือง ซึ่งเป็นภัยคุกคามต่อ สิทธิในความเป็นส่วนตัว หน่วยงานคุ้มครองข้อมูลเน้นย้ำว่าความเป็นส่วนตัวเป็น “สิทธิที่จำเป็นต่อการปกป้องศักดิ์ศรีมนุษย์ ความเป็นอิสระ และความสามารถในการตัดสินใจ” ที่ต้องได้รับการเคารพตลอดวงจรชีวิตของระบบ AI

หากการพัฒนา AI เร็วกว่ากฎระเบียบด้านความเป็นส่วนตัว บุคคลอาจสูญเสียการควบคุมข้อมูลของตนเอง สังคมจึงต้องมั่นใจว่ามีการกำกับดูแลข้อมูลที่เข้มแข็ง กลไกการยินยอม และเทคนิคการรักษาความเป็นส่วนตัว เพื่อไม่ให้เทคโนโลยี AI กลายเป็นเครื่องมือของการเฝ้าระวังที่ไร้การควบคุม

ภัยคุกคามต่อความเป็นส่วนตัวและการเฝ้าระวังจำนวนมาก

ความล้มเหลวด้านความปลอดภัยและความเสียหายที่ไม่ตั้งใจ

แม้ AI จะสามารถทำงานอัตโนมัติและงานทางกายภาพด้วยประสิทธิภาพเหนือมนุษย์ แต่ก็สามารถ ล้มเหลวในรูปแบบที่คาดเดาไม่ได้ นำไปสู่ความเสียหายในโลกจริง เรามอบหมายความรับผิดชอบที่สำคัญต่อความปลอดภัยให้กับ AI มากขึ้น เช่น การขับรถ การวินิจฉัยผู้ป่วย หรือการจัดการระบบไฟฟ้า แต่ระบบเหล่านี้ไม่สมบูรณ์แบบ

ข้อผิดพลาด ข้อมูลฝึกสอนที่บกพร่อง หรือสถานการณ์ที่ไม่คาดคิด อาจทำให้ AI ตัดสินใจผิดพลาดอย่างอันตราย เช่น AI ในรถยนต์ขับเคลื่อนอัตโนมัติอาจจำแนกคนเดินถนนผิด หรือ AI ทางการแพทย์อาจแนะนำการรักษาที่ผิดพลาด ซึ่งอาจมีผลร้ายแรงถึงชีวิต

ด้วยเหตุนี้ แนวทางระดับนานาชาติเน้นย้ำว่า ควรคาดการณ์และป้องกันความเสียหายและความเสี่ยงด้านความปลอดภัยที่ไม่พึงประสงค์ จาก AI: “ควรหลีกเลี่ยงและแก้ไขความเสียหายที่ไม่พึงประสงค์ (ความเสี่ยงด้านความปลอดภัย) รวมถึงช่องโหว่ต่อการโจมตี (ความเสี่ยงด้านความมั่นคง) ตลอดวงจรชีวิตของระบบ AI เพื่อให้มั่นใจในความปลอดภัยและความมั่นคงของมนุษย์ สิ่งแวดล้อม และระบบนิเวศ”

กล่าวคือ ระบบ AI ต้องได้รับการทดสอบและตรวจสอบอย่างเข้มงวด พร้อมมีระบบป้องกันความผิดพลาดเพื่อลดโอกาสเกิดความล้มเหลว การพึ่งพา AI มากเกินไปก็มีความเสี่ยง หากมนุษย์เชื่อมั่นในคำตัดสินอัตโนมัติอย่างไม่ลืมหูลืมตา อาจไม่สามารถเข้ามาแทรกแซงได้ทันเมื่อเกิดปัญหา

ดังนั้น การมี การกำกับดูแลโดยมนุษย์ จึงเป็นสิ่งสำคัญ ในการใช้งานที่มีความเสี่ยงสูง (เช่น การดูแลสุขภาพหรือการขนส่ง) การตัดสินใจขั้นสุดท้ายควรอยู่ภายใต้การพิจารณาของมนุษย์ และตามที่ยูเนสโกระบุว่า “การตัดสินใจเกี่ยวกับชีวิตและความตายไม่ควรถูกมอบหมายให้กับระบบ AI” การรักษาความปลอดภัยและความน่าเชื่อถือของ AI เป็นความท้าทายที่ต้องดำเนินการอย่างต่อเนื่อง โดยต้องออกแบบอย่างรอบคอบและปลูกฝังวัฒนธรรมความรับผิดชอบในหมู่นักพัฒนา AI

ความล้มเหลวด้านความปลอดภัยและความเสียหายที่ไม่ตั้งใจใน AI

การทดแทนงานและความปั่นป่วนทางเศรษฐกิจ

ผลกระทบของ AI ต่อเศรษฐกิจเป็นดาบสองคม ในขณะที่ AI สามารถเพิ่มผลผลิตและสร้างอุตสาหกรรมใหม่ ๆ ได้ แต่ก็มี ความเสี่ยงที่จะทดแทนแรงงานหลายล้านคน ผ่านระบบอัตโนมัติ

งานหลายประเภท โดยเฉพาะงานที่เกี่ยวข้องกับงานซ้ำซากหรือข้อมูลที่วิเคราะห์ง่าย มีความเสี่ยงสูงที่จะถูกแทนที่ด้วยอัลกอริทึมและหุ่นยนต์ AI การคาดการณ์ระดับโลกชี้ว่า ตัวอย่างเช่น เวิลด์อีโคโนมิกฟอรัมคาดการณ์ว่า “งาน 92 ล้านตำแหน่งจะถูกทดแทนภายในปี 2030” เนื่องจาก AI และเทคโนโลยีที่เกี่ยวข้อง

แม้ว่าเศรษฐกิจอาจสร้างบทบาทใหม่ ๆ ขึ้นมา (ซึ่งอาจมากกว่าจำนวนงานที่สูญเสียในระยะยาว) แต่การเปลี่ยนผ่านนี้จะเป็นเรื่องยากสำหรับหลายคน งานใหม่มักต้องการทักษะที่แตกต่างและสูงขึ้น หรือกระจุกตัวในศูนย์กลางเทคโนโลยีบางแห่ง ทำให้แรงงานที่ถูกทดแทนอาจประสบปัญหาในการหางานใหม่

ความ ไม่สอดคล้องกันระหว่างทักษะที่แรงงานมีและทักษะที่งานใหม่ที่ขับเคลื่อนด้วย AI ต้องการ อาจนำไปสู่การว่างงานและความไม่เท่าเทียมที่สูงขึ้นหากไม่ได้รับการแก้ไข นักนโยบายและนักวิจัยเตือนว่าการพัฒนา AI อย่างรวดเร็วอาจก่อให้เกิด “ความปั่นป่วนในตลาดแรงงานและความไม่เท่าเทียมทางเศรษฐกิจในระดับระบบ”

กลุ่มบางกลุ่มอาจได้รับผลกระทบหนักกว่า เช่น งานที่ผู้หญิงหรือแรงงานในประเทศกำลังพัฒนาถือครองมีความเสี่ยงสูงต่อระบบอัตโนมัติ หากไม่มีมาตรการเชิงรุก เช่น โปรแกรมฝึกอบรมใหม่ การศึกษาเกี่ยวกับทักษะ AI และระบบความปลอดภัยทางสังคม AI อาจขยายช่องว่างทางสังคมและเศรษฐกิจ สร้างเศรษฐกิจที่ขับเคลื่อนด้วย AI ซึ่งผู้ครอบครองเทคโนโลยีได้รับประโยชน์มากที่สุด

การเตรียมแรงงานให้พร้อมรับผลกระทบจาก AI เป็นสิ่งสำคัญเพื่อให้ประโยชน์จากระบบอัตโนมัติถูกแบ่งปันอย่างกว้างขวางและป้องกันความวุ่นวายทางสังคมจากการสูญเสียงานจำนวนมาก

การทดแทนงานและความปั่นป่วนทางเศรษฐกิจใน AI

การใช้ในทางที่ผิดทางอาญา การฉ้อโกง และภัยคุกคามด้านความมั่นคง

AI เป็นเครื่องมือทรงพลังที่สามารถถูกใช้เพื่อวัตถุประสงค์ที่ไม่ดีได้เช่นเดียวกับวัตถุประสงค์ที่ดี อาชญากรไซเบอร์และผู้ประสงค์ร้ายอื่น ๆ กำลังใช้ AI เพื่อเพิ่มประสิทธิภาพในการโจมตีของพวกเขา

ตัวอย่างเช่น AI สามารถสร้างอีเมลหรือข้อความเสียงฟิชชิ่งที่ปรับแต่งเฉพาะบุคคลสูง (โดยการโคลนเสียงของใครบางคน) เพื่อหลอกลวงให้เปิดเผยข้อมูลสำคัญหรือโอนเงิน นอกจากนี้ยังสามารถใช้ในการแฮ็กอัตโนมัติด้วยการค้นหาช่องโหว่ของซอฟต์แวร์ในวงกว้าง หรือพัฒนาโปรแกรมประสงค์ร้ายที่ปรับตัวเพื่อหลบเลี่ยงการตรวจจับ

ศูนย์ความปลอดภัย AI ระบุว่าการใช้ AI ในทางที่ผิดเป็นความกังวลหลัก โดยมีสถานการณ์เช่นระบบ AI ถูกใช้โดยอาชญากรเพื่อดำเนินการ การฉ้อโกงและการโจมตีไซเบอร์ขนาดใหญ่ รายงานที่รัฐบาลสหราชอาณาจักรว่าจ้างยังเตือนอย่างชัดเจนว่า “ผู้ประสงค์ร้ายสามารถใช้ AI ในการดำเนินแคมเปญข้อมูลเท็จและการชักจูง การฉ้อโกง และการหลอกลวงขนาดใหญ่”

ความเร็ว ขนาด และความซับซ้อนที่ AI มอบให้อาจทำให้การป้องกันแบบเดิม ๆ รับมือไม่ไหว ลองนึกภาพสายโทรศัพท์หลอกลวงที่สร้างโดย AI หลายพันสาย หรือวิดีโอดีปเฟคโจมตีความปลอดภัยของบริษัทในวันเดียว

นอกจากอาชญากรรมทางการเงิน ยังมีความเสี่ยงที่ AI จะถูกใช้เพื่อสนับสนุน การขโมยตัวตน การคุกคาม หรือการสร้างเนื้อหาที่เป็นอันตราย เช่น วิดีโอโป๊ดีปเฟคที่ไม่ได้รับความยินยอม หรือโฆษณาชวนเชื่อของกลุ่มสุดโต่ง เมื่อเครื่องมือ AI เข้าถึงง่ายขึ้น อุปสรรคในการกระทำความผิดเหล่านี้ก็ลดลง อาจนำไปสู่การเพิ่มขึ้นของอาชญากรรมที่ใช้ AI เสริม

สิ่งนี้จำเป็นต้องมีแนวทางใหม่ในการรักษาความปลอดภัยไซเบอร์และการบังคับใช้กฎหมาย เช่น ระบบ AI ที่สามารถ ตรวจจับดีปเฟคหรือพฤติกรรมผิดปกติ และกรอบกฎหมายที่ปรับปรุงใหม่เพื่อให้ผู้กระทำผิดรับผิดชอบ โดยสรุป เราต้องคาดการณ์ว่า ความสามารถใดที่ AI มอบให้กับผู้ใช้ประโยชน์ ก็อาจถูกใช้โดยอาชญากรได้เช่นกัน และเตรียมพร้อมรับมืออย่างเหมาะสม

การใช้ในทางที่ผิดทางอาญา การฉ้อโกง และภัยคุกคามด้านความมั่นคงใน AI

การทหารและอาวุธอัตโนมัติ

ความเสี่ยงที่น่ากลัวที่สุดของ AI อาจเกิดขึ้นในบริบทของสงครามและความมั่นคงแห่งชาติ AI กำลังถูกผนวกเข้ากับระบบทหารอย่างรวดเร็ว เพิ่มโอกาสของ อาวุธอัตโนมัติ (“หุ่นยนต์นักฆ่า”) และการตัดสินใจโดย AI ในการสู้รบ

เทคโนโลยีเหล่านี้สามารถตอบสนองได้เร็วกว่ามนุษย์ แต่การถอดการควบคุมของมนุษย์ออกจากการใช้กำลังรุนแรงนั้นเต็มไปด้วยอันตราย มีความเสี่ยงที่อาวุธที่ควบคุมโดย AI อาจเลือกเป้าหมายผิด หรือทำให้ความขัดแย้งบานปลายในทางที่ไม่คาดคิด ผู้สังเกตการณ์ระหว่างประเทศเตือนว่า “การใช้อาวุธ AI ในทางทหาร” เป็นภัยคุกคามที่เพิ่มขึ้น

หากประเทศต่าง ๆ แข่งขันกันติดตั้งอาวุธอัจฉริยะ อาจก่อให้เกิดการแข่งขันสะสมอาวุธที่ทำลายเสถียรภาพ นอกจากนี้ AI ยังอาจถูกใช้ในสงครามไซเบอร์เพื่อโจมตีโครงสร้างพื้นฐานสำคัญโดยอัตโนมัติ หรือเผยแพร่โฆษณาชวนเชื่อ ทำให้เส้นแบ่งระหว่างสันติภาพและความขัดแย้งพร่าเลือน

สหประชาชาติแสดงความกังวลว่าการพัฒนา AI ในสงคราม หากถูกควบคุมโดยกลุ่มเล็ก ๆ อาจ “ถูกบังคับใช้กับประชาชนโดยที่พวกเขาไม่มีสิทธิ์มีส่วนร่วมในการตัดสินใจเกี่ยวกับการใช้งาน” ซึ่งจะบ่อนทำลายความมั่นคงและจริยธรรมระดับโลก

ระบบอาวุธอัตโนมัติยังสร้าง ปัญหาทางกฎหมายและจริยธรรม เช่น ใครจะรับผิดชอบหากโดรน AI ฆ่าประชาชนโดยผิดพลาด? ระบบเหล่านี้จะปฏิบัติตามกฎหมายมนุษยธรรมระหว่างประเทศอย่างไร?

คำถามที่ยังไม่มีคำตอบเหล่านี้นำไปสู่การเรียกร้องให้มีการห้ามหรือควบคุมอย่างเข้มงวดต่ออาวุธบางประเภทที่ใช้ AI การรักษาการกำกับดูแลโดยมนุษย์เหนือ AI ที่สามารถตัดสินใจเรื่องชีวิตและความตายจึงเป็นเรื่องสำคัญอย่างยิ่ง หากขาดสิ่งนี้ ความเสี่ยงไม่เพียงแต่เป็นความผิดพลาดที่น่าเศร้าในสนามรบ แต่ยังเป็นการลดทอนความรับผิดชอบของมนุษย์ในสงคราม

การทหารและอาวุธอัตโนมัติใน AI

ขาดความโปร่งใสและความรับผิดชอบ

ระบบ AI ขั้นสูงส่วนใหญ่ในปัจจุบันทำงานเหมือน “กล่องดำ” – ตรรกะภายในมักไม่โปร่งใสแม้แต่กับผู้สร้างเอง การขาดความโปร่งใสนี้สร้างความเสี่ยงที่คำตัดสินของ AI ไม่สามารถอธิบายหรือท้าทายได้ ซึ่งเป็นปัญหาร้ายแรงในสาขาเช่น กฎหมาย การเงิน หรือการแพทย์ ที่การอธิบายได้เป็นข้อกำหนดทางกฎหมายหรือจริยธรรม

หาก AI ปฏิเสธสินเชื่อ วินิจฉัยโรค หรือกำหนดว่าใครได้รับการปล่อยตัวจากคุก เราก็ย่อมอยากรู้เหตุผล ด้วยโมเดล AI บางประเภท (โดยเฉพาะเครือข่ายประสาทเทียมที่ซับซ้อน) การให้เหตุผลที่ชัดเจนเป็นเรื่องยาก

การ “ขาดความโปร่งใส” อาจ บ่อนทำลายความไว้วางใจ และ “อาจบ่อนทำลายความเป็นไปได้ในการท้าทายคำตัดสินที่เกิดจากระบบ AI อย่างมีประสิทธิภาพ” ตามที่ยูเนสโกระบุ “และอาจละเมิดสิทธิในการพิจารณาคดีที่เป็นธรรมและการเยียวยาที่มีประสิทธิผล”

กล่าวคือ หากผู้ใช้หรือหน่วยงานกำกับดูแลไม่สามารถเข้าใจวิธีที่ AI ตัดสินใจได้ ก็แทบจะเป็นไปไม่ได้ที่จะทำให้ใครรับผิดชอบต่อความผิดพลาดหรืออคติที่เกิดขึ้น

ช่องว่างด้านความรับผิดชอบนี้เป็นความเสี่ยงใหญ่ บริษัทอาจหลีกเลี่ยงความรับผิดชอบโดยโยนความผิดให้ “อัลกอริทึม” และบุคคลที่ได้รับผลกระทบอาจไม่มีทางแก้ไข เพื่อแก้ไขปัญหานี้ ผู้เชี่ยวชาญสนับสนุนเทคนิค AI ที่อธิบายได้ การตรวจสอบอย่างเข้มงวด และข้อกำหนดทางกฎหมายที่คำตัดสินของ AI ต้องสามารถตรวจสอบย้อนกลับไปยังผู้มีอำนาจมนุษย์ได้

แนวทางจริยธรรมระดับโลกยืนยันว่าควร “สามารถระบุความรับผิดชอบทางจริยธรรมและกฎหมายได้เสมอ” สำหรับพฤติกรรมของระบบ AI มนุษย์ต้องยังคงรับผิดชอบสูงสุด และ AI ควรช่วยสนับสนุน ไม่ใช่แทนที่การตัดสินใจของมนุษย์ในเรื่องที่ละเอียดอ่อน มิฉะนั้นเราจะเสี่ยงสร้างโลกที่การตัดสินใจสำคัญถูกกำหนดโดยเครื่องจักรที่ไม่สามารถเข้าใจได้ ซึ่งเป็นสูตรของความอยุติธรรม

ขาดความโปร่งใสและความรับผิดชอบในการใช้ AI ในที่ทำงาน

การรวมศูนย์อำนาจและความไม่เท่าเทียม

การปฏิวัติ AI ไม่ได้เกิดขึ้นอย่างเท่าเทียมทั่วโลก – บริษัทและประเทศจำนวนน้อยครอบงำการพัฒนา AI ขั้นสูง ซึ่งนำมาซึ่งความเสี่ยงของตัวเอง

โมเดล AI ขั้นสูงต้องการข้อมูล ทรัพยากรบุคคล และพลังประมวลผลมหาศาล ซึ่งมีเพียงบริษัทเทคโนโลยียักษ์ใหญ่และรัฐบาลที่มีงบประมาณสูงเท่านั้นที่มีอยู่ในปัจจุบัน ส่งผลให้เกิด “ห่วงโซ่อุปทานที่เข้มข้นสูง เป็นเอกเทศ และบูรณาการระดับโลกที่เอื้อประโยชน์ต่อบริษัทและประเทศไม่กี่แห่ง” ตามรายงานของเวิลด์อีโคโนมิกฟอรัม

การรวมศูนย์อำนาจ AI ดังกล่าวอาจแปลเป็น การควบคุมแบบผูกขาด เหนือเทคโนโลยี AI จำกัดการแข่งขันและทางเลือกของผู้บริโภค และเพิ่มความเสี่ยงที่ความสำคัญของบริษัทหรือประเทศเหล่านั้นจะกำหนดทิศทาง AI โดยไม่คำนึงถึงประโยชน์สาธารณะในวงกว้าง

สหประชาชาติได้ชี้ให้เห็นถึง “อันตรายที่เทคโนโลยี [AI] อาจถูกบังคับใช้กับประชาชนโดยที่พวกเขาไม่มีสิทธิ์มีส่วนร่วมในการตัดสินใจเกี่ยวกับการใช้งาน” เมื่อการพัฒนาถูกจำกัดอยู่ในมือของกลุ่มเล็ก ๆ

ความไม่สมดุลนี้อาจทำให้ความไม่เท่าเทียมทั่วโลกรุนแรงขึ้น ประเทศและบริษัทที่ร่ำรวยก้าวหน้าโดยใช้ AI ขณะที่ชุมชนที่ยากจนกว่าขาดการเข้าถึงเครื่องมือใหม่และประสบปัญหาการสูญเสียงานโดยไม่ได้รับประโยชน์จาก AI นอกจากนี้ อุตสาหกรรม AI ที่รวมศูนย์อาจขัดขวางนวัตกรรม (หากผู้มาใหม่ไม่สามารถแข่งขันกับทรัพยากรของผู้เล่นเดิมได้) และก่อให้เกิดความเสี่ยงด้านความมั่นคง (หากโครงสร้างพื้นฐาน AI สำคัญถูกควบคุมโดยไม่กี่องค์กร กลายเป็นจุดล้มเหลวหรือถูกแทรกแซงได้ง่าย)

การแก้ไขความเสี่ยงนี้ต้องอาศัยความร่วมมือระหว่างประเทศและอาจต้องมีกฎระเบียบใหม่เพื่อกระจายการพัฒนา AI เช่น สนับสนุนการวิจัยแบบเปิด การเข้าถึงข้อมูลและพลังประมวลผลอย่างเป็นธรรม และนโยบายต่าง ๆ (เช่น กฎหมาย AI ของสหภาพยุโรป) เพื่อป้องกันการปฏิบัติที่ไม่เหมาะสมโดย “ผู้ควบคุม AI” ภูมิทัศน์ AI ที่ครอบคลุมมากขึ้นจะช่วยให้ประโยชน์ของ AI ถูกแบ่งปันทั่วโลก แทนที่จะขยายช่องว่างระหว่างผู้มีและผู้ไม่มีเทคโนโลยี

การรวมศูนย์อำนาจและความไม่เท่าเทียม

ผลกระทบต่อสิ่งแวดล้อมของ AI

สิ่งที่มักถูกมองข้ามในการพูดคุยเกี่ยวกับความเสี่ยงของ AI คือ รอยเท้าทางสิ่งแวดล้อม การพัฒนา AI โดยเฉพาะ การฝึกสอนโมเดลการเรียนรู้ของเครื่องขนาดใหญ่ ใช้พลังงานไฟฟ้าและพลังประมวลผลจำนวนมหาศาล

ศูนย์ข้อมูลที่เต็มไปด้วยเซิร์ฟเวอร์ที่ใช้พลังงานสูงนับพันเครื่องจำเป็นต้องประมวลผลข้อมูลจำนวนมหาศาลที่ระบบ AI เรียนรู้จาก นั่นหมายความว่า AI อาจมีส่วนทำให้เกิด การปล่อยก๊าซคาร์บอนไดออกไซด์และการเปลี่ยนแปลงสภาพภูมิอากาศ โดยทางอ้อม

รายงานล่าสุดจากหน่วยงานสหประชาชาติพบว่าการปล่อยก๊าซคาร์บอนโดยทางอ้อมของบริษัทเทคโนโลยี AI ชั้นนำ 4 แห่ง เพิ่มขึ้นเฉลี่ย 150% ระหว่างปี 2020 ถึง 2023 ส่วนใหญ่เป็นผลจากความต้องการพลังงานของศูนย์ข้อมูล AI

เมื่อการลงทุนใน AI เพิ่มขึ้น การปล่อยก๊าซจากการใช้งานโมเดล AI คาดว่าจะเพิ่มขึ้นอย่างรวดเร็ว – รายงานคาดการณ์ว่า ระบบ AI ชั้นนำอาจปล่อยก๊าซคาร์บอนไดออกไซด์รวมกันมากกว่า 100 ล้านตันต่อปี ซึ่งสร้างภาระหนักต่อโครงสร้างพื้นฐานพลังงาน

เพื่อให้เห็นภาพ ศูนย์ข้อมูลที่ขับเคลื่อน AI กำลังเพิ่มการใช้ไฟฟ้า “เร็วกว่าอัตราการเพิ่มขึ้นโดยรวมของการใช้ไฟฟ้าถึงสี่เท่า”

นอกจากการปล่อยก๊าซคาร์บอน AI ยังใช้น้ำจำนวนมากสำหรับการระบายความร้อน และก่อให้เกิดขยะอิเล็กทรอนิกส์เมื่อฮาร์ดแวร์ได้รับการอัปเกรดอย่างรวดเร็ว หากปล่อยไว้โดยไม่มีการควบคุม ผลกระทบต่อสิ่งแวดล้อมของ AI อาจบ่อนทำลายความพยายามด้านความยั่งยืนระดับโลก

ความเสี่ยงนี้เรียกร้องให้ทำให้ AI ประหยัดพลังงานมากขึ้น และใช้แหล่งพลังงานที่สะอาดกว่า นักวิจัยกำลังพัฒนาเทคนิค AI สีเขียวเพื่อลดการใช้พลังงาน และบางบริษัทได้ให้คำมั่นว่าจะชดเชยต้นทุนคาร์บอนของ AI อย่างไรก็ตาม นี่ยังคงเป็นเรื่องเร่งด่วนที่ การเร่งพัฒนา AI อาจมีราคาทางสิ่งแวดล้อมที่สูง การสร้างสมดุลระหว่างความก้าวหน้าทางเทคโนโลยีกับความรับผิดชอบต่อสิ่งแวดล้อมเป็นอีกหนึ่งความท้าทายที่สังคมต้องเผชิญเมื่อเรานำ AI มาใช้ในทุกที่

ผลกระทบต่อสิ่งแวดล้อมของ AI

ความเสี่ยงเชิงมีอยู่และระยะยาว

นอกเหนือจากความเสี่ยงในทันที ผู้เชี่ยวชาญบางคนเตือนถึงความเสี่ยง เชิงสมมุติฐานและระยะยาว จาก AI – รวมถึงความเป็นไปได้ของ AI ขั้นสูงที่เติบโตเกินการควบคุมของมนุษย์ แม้ระบบ AI ในปัจจุบันจะมีความสามารถจำกัด แต่มีการวิจัยอย่างต่อเนื่องเพื่อพัฒนา AI ทั่วไป ที่อาจมีประสิทธิภาพเหนือมนุษย์ในหลายด้าน

นี่เป็นคำถามที่ซับซ้อน: หาก AI ฉลาดหรือเป็นอิสระมากขึ้น มันอาจทำในสิ่งที่คุกคามการดำรงอยู่ของมนุษยชาติได้หรือไม่? แม้ฟังดูเหมือนนิยายวิทยาศาสตร์ บุคคลสำคัญในวงการเทคโนโลยีได้แสดงความกังวลเกี่ยวกับสถานการณ์ “AI นอกกรอบ” และรัฐบาลต่าง ๆ ก็กำลังให้ความสนใจอย่างจริงจัง

ในปี 2023 สหราชอาณาจักรเป็นเจ้าภาพการประชุมสุดยอดความปลอดภัย AI ระดับโลกเพื่อหารือเกี่ยวกับความเสี่ยงของ AI ขั้นสูง ความเห็นทางวิทยาศาสตร์ยังไม่เป็นเอกฉันท์ บางคนเชื่อว่า AI อัจฉริยะขั้นสูงยังอยู่ห่างไกลหลายสิบปีหรือสามารถควบคุมให้สอดคล้องกับค่านิยมมนุษย์ได้ ขณะที่บางคนเห็นว่ามีโอกาสเล็กน้อยแต่ไม่เป็นศูนย์ที่จะเกิดผลลัพธ์หายนะ

รายงานความปลอดภัย AI ระหว่างประเทศล่าสุดเน้นว่า “ผู้เชี่ยวชาญมีมุมมองที่แตกต่างกันเกี่ยวกับความเสี่ยงที่มนุษย์จะสูญเสียการควบคุม AI ในลักษณะที่อาจนำไปสู่ผลลัพธ์หายนะ”

โดยสรุป มีการยอมรับว่า ความเสี่ยงเชิงมีอยู่จาก AI แม้จะห่างไกล ก็ไม่สามารถละเลยได้ทั้งหมด ผลลัพธ์ดังกล่าวอาจเกี่ยวข้องกับ AI ที่มุ่งมั่นบรรลุเป้าหมายโดยไม่คำนึงถึงความเป็นอยู่ที่ดีของมนุษย์ (ตัวอย่างคลาสสิกคือ AI ที่หากถูกตั้งโปรแกรมผิด อาจตัดสินใจทำสิ่งที่เป็นอันตรายในวงกว้างเพราะขาดสามัญสำนึกหรือข้อจำกัดทางศีลธรรม)

แม้ AI ในปัจจุบันจะยังไม่มีความสามารถในระดับนั้น แต่ ความก้าวหน้าของ AI มีความรวดเร็วและไม่แน่นอน ซึ่งเป็นปัจจัยเสี่ยงในตัวเอง การเตรียมพร้อมสำหรับความเสี่ยงระยะยาวหมายถึงการลงทุนในการวิจัยการปรับ AI ให้สอดคล้องกับค่านิยมมนุษย์ การสร้างข้อตกลงระหว่างประเทศเกี่ยวกับการวิจัย AI ที่มีความเสี่ยงสูง (เช่นเดียวกับสนธิสัญญาเกี่ยวกับอาวุธนิวเคลียร์หรือชีวภาพ) และการรักษาการกำกับดูแลโดยมนุษย์เมื่อระบบ AI มีความสามารถมากขึ้น

อนาคตของ AI มีศักยภาพมหาศาล แต่ก็มี ความไม่แน่นอน และความรอบคอบบ่งชี้ว่าเราควรพิจารณาความเสี่ยงที่มีโอกาสต่ำแต่ผลกระทบสูงในการวางแผนระยะยาว

>>> คลิกเพื่อเรียนรู้เพิ่มเติม: ประโยชน์ของปัญญาประดิษฐ์สำหรับบุคคลและธุรกิจ

ความเสี่ยงเชิงมีอยู่และระยะยาวใน AI


AI มักถูกเปรียบเทียบกับเครื่องยนต์ทรงพลังที่ขับเคลื่อนมนุษยชาติไปข้างหน้า – แต่หากไม่มีเบรกและพวงมาลัย เครื่องยนต์นั้นอาจออกนอกเส้นทางได้ ดังที่เราเห็น ความเสี่ยงจากการใช้ AI มี หลายมิติ ตั้งแต่ปัญหาเฉพาะหน้า เช่น อัลกอริทึมที่มีอคติ ข่าวปลอม การละเมิดความเป็นส่วนตัว และความปั่นป่วนในงาน ไปจนถึงความท้าทายทางสังคมที่กว้างขึ้น เช่น ภัยคุกคามด้านความมั่นคง การตัดสินใจแบบ “กล่องดำ” การผูกขาดของบริษัทเทคโนโลยีขนาดใหญ่ ภาระต่อสิ่งแวดล้อม และแม้แต่เงามืดของการสูญเสียการควบคุมต่อ AI อัจฉริยะขั้นสูง

ความเสี่ยงเหล่านี้ไม่ได้หมายความว่าเราควรหยุดพัฒนา AI แต่เน้นย้ำถึงความจำเป็นเร่งด่วนในการ กำกับดูแล AI อย่างรับผิดชอบและปฏิบัติตามหลักจริยธรรม

รัฐบาล องค์กรระหว่างประเทศ ผู้นำอุตสาหกรรม และนักวิจัยกำลังร่วมมือกันมากขึ้นเพื่อแก้ไขปัญหาเหล่านี้ – เช่น ผ่านกรอบงานอย่าง AI Risk Management Framework ของสถาบันมาตรฐานและเทคโนโลยีแห่งสหรัฐฯ (เพื่อเพิ่มความน่าเชื่อถือของ AI) คำแนะนำจริยธรรม AI ระดับโลกของยูเนสโก และกฎหมาย AI ของสหภาพยุโรป

ความพยายามเหล่านี้มุ่งหวังที่จะ เพิ่มประโยชน์ของ AI ในขณะลดผลกระทบด้านลบ เพื่อให้ AI บริการมนุษยชาติ ไม่ใช่ในทางกลับกัน ท้ายที่สุด การเข้าใจความเสี่ยงของ AI คือก้าวแรกในการจัดการกับมัน โดยการติดตามข้อมูลและมีส่วนร่วมในการพัฒนาและใช้งาน AI เราสามารถช่วยนำเทคโนโลยีเปลี่ยนแปลงนี้ไปในทิศทางที่ปลอดภัย ยุติธรรม และเป็นประโยชน์ต่อทุกคน