ปัญญาประดิษฐ์ (AI) หมายถึงระบบคอมพิวเตอร์ที่เลียนแบบความฉลาดของมนุษย์ – เช่น โปรแกรมที่สามารถจดจำภาพ เข้าใจภาษา หรือทำการตัดสินใจ ในชีวิตประจำวัน AI ขับเคลื่อนเครื่องมือต่าง ๆ เช่น ผู้ช่วยเสียงบนสมาร์ทโฟน ระบบแนะนำบนโซเชียลมีเดีย และแม้แต่แชทบอทขั้นสูงที่เขียนข้อความได้
AI มีศักยภาพในการพัฒนาหลายสาขาอย่างมาก แต่ก็สร้างความกังวลหลายประการด้วยเช่นกัน
ดังนั้น AI อันตรายหรือไม่? บทความนี้จะสำรวจทั้งสองด้าน: ประโยชน์ที่แท้จริงของ AI และอันตรายที่ผู้เชี่ยวชาญเตือน
ประโยชน์ที่จับต้องได้ของ AI ในโลกจริง
ภาพ: ภาพวาดเป็นมิตรของหุ่นยนต์และมนุษย์ที่ทำงานร่วมกัน แสดงถึง AI ที่ช่วยเหลือมนุษย์ AI ได้ถูกรวมเข้ากับแอปพลิเคชันที่เป็นประโยชน์มากมายแล้ว
ตัวอย่างเช่น ยูเนสโกระบุว่า AI “สร้างโอกาสมากมาย” ทั่วโลก – ตั้งแต่ การวินิจฉัยทางการแพทย์ที่รวดเร็วขึ้น ไปจนถึงการเชื่อมต่อที่ดีขึ้นผ่านโซเชียลมีเดีย และการทำงานอัตโนมัติในงานที่น่าเบื่อ
สหภาพยุโรปก็เน้นว่า “AI ที่น่าเชื่อถือสามารถนำมาซึ่งประโยชน์มากมาย” เช่น การดูแลสุขภาพที่ดีขึ้น, การขนส่งที่ปลอดภัยกว่า, และ อุตสาหกรรมและการใช้พลังงานที่มีประสิทธิภาพมากขึ้น ในทางการแพทย์ องค์การอนามัยโลกรายงานว่า AI ถูกใช้ในการวินิจฉัย การพัฒนายา และการตอบสนองต่อการระบาด โดยกระตุ้นให้ประเทศต่าง ๆ ส่งเสริมนวัตกรรมเหล่านี้เพื่อทุกคน
นักเศรษฐศาสตร์ยังเปรียบเทียบการแพร่กระจายอย่างรวดเร็วของ AI กับการปฏิวัติเทคโนโลยีในอดีต
ตัวอย่างเช่น รัฐบาลสหรัฐฯ เน้นว่า “AI มีศักยภาพพิเศษทั้งในด้านโอกาสและความเสี่ยง” หมายความว่าเราควร ใช้ประโยชน์ จากพลังนี้เพื่อแก้ปัญหาเช่นการเปลี่ยนแปลงสภาพภูมิอากาศหรือโรคภัยไข้เจ็บ พร้อมกับตระหนักถึงความเสี่ยงด้วย
ประโยชน์สำคัญของ AI ได้แก่:
- การดูแลสุขภาพที่ดีขึ้น: ระบบ AI สามารถวิเคราะห์ภาพเอ็กซ์เรย์ MRI และข้อมูลผู้ป่วยได้รวดเร็วกว่ามนุษย์ ช่วยให้ตรวจพบโรคตั้งแต่ระยะแรกและรักษาแบบเฉพาะบุคคลได้ เช่น การใช้ AI ช่วยวิเคราะห์ภาพสามารถค้นหาก้อนเนื้อที่แพทย์อาจมองไม่เห็น
- ประสิทธิภาพที่สูงขึ้น: กระบวนการอัตโนมัติในโรงงาน สำนักงาน และบริการต่าง ๆ ช่วยเพิ่มผลผลิต ตามที่สหภาพยุโรประบุ การทำงานอัตโนมัติด้วย AI นำไปสู่ “การผลิตที่มีประสิทธิภาพมากขึ้น” และแม้แต่ระบบพลังงานอัจฉริยะ
หุ่นยนต์และซอฟต์แวร์จัดการงานซ้ำซาก เพื่อให้มนุษย์มุ่งเน้นงานสร้างสรรค์หรือซับซ้อน - การขนส่งและบริการที่ปลอดภัยกว่า: เทคโนโลยีรถยนต์ขับเคลื่อนอัตโนมัติและ AI จัดการจราจรมีเป้าหมายลดอุบัติเหตุและความแออัด AI อัจฉริยะยังช่วยปรับปรุงระบบเตือนภัยภัยพิบัติและเพิ่มประสิทธิภาพโลจิสติกส์ ทำให้การเดินทางและการขนส่งปลอดภัยขึ้น
- ช่วยงานวิทยาศาสตร์และสิ่งแวดล้อม: นักวิจัยใช้ AI วิเคราะห์แบบจำลองสภาพภูมิอากาศและข้อมูลพันธุกรรม ช่วยแก้ไขปัญหาใหญ่ เช่น การเปลี่ยนแปลงสภาพภูมิอากาศ: ยูเนสโกรายงานว่าการปรับแต่ง AI เล็กน้อยสามารถลดการใช้พลังงานอย่างมาก ทำให้ AI เป็นเครื่องมือที่ยั่งยืนมากขึ้น
- การศึกษาและการเข้าถึง: ติวเตอร์ที่ขับเคลื่อนด้วย AI สามารถปรับการเรียนรู้ให้เหมาะกับนักเรียนแต่ละคน และเครื่องมือรู้จำเสียงหรือแปลภาษา ช่วยผู้พิการได้ บริแทนนิกากล่าวว่า AI ยัง “ช่วยกลุ่มคนชายขอบด้วยการเพิ่มการเข้าถึง” (เช่น ผู้ช่วยอ่านสำหรับผู้มีปัญหาทางสายตา)
ตัวอย่างเหล่านี้แสดงให้เห็นว่า AI ไม่ใช่แค่เรื่องนิยายวิทยาศาสตร์ – แต่ให้ คุณค่าแท้จริง ในปัจจุบัน
ความเสี่ยงและอันตรายที่อาจเกิดขึ้นจาก AI
ภาพ: ภาพศิลปะบนถนนคำว่า “Robot” เตือนถึงผลกระทบที่ไม่แน่นอนของ AI แม้จะมีสัญญา แต่ผู้เชี่ยวชาญหลายคนเตือนว่า AI อาจ อันตรายหากใช้อย่างผิดวิธีหรือขาดการควบคุม ความกังวลหลักคือ อคติและการเลือกปฏิบัติ เพราะ AI เรียนรู้จากข้อมูลที่มีอยู่ จึงอาจสืบทอดอคติของมนุษย์
ยูเนสโกเตือนว่า หากขาดจริยธรรมที่เข้มงวด AI “เสี่ยงที่จะทำซ้ำอคติและการเลือกปฏิบัติในโลกจริง เพิ่มความแตกแยก และคุกคามสิทธิมนุษยชนและเสรีภาพขั้นพื้นฐาน” งานวิจัยพบว่าการรู้จำใบหน้ามักระบุเพศหญิงหรือคนผิวสีผิด และอัลกอริทึมการจ้างงานอาจลำเอียงต่อเพศบางกลุ่ม
บริแทนนิกากล่าวว่า AI สามารถ “ทำร้ายชนกลุ่มน้อยทางเชื้อชาติโดยการทำซ้ำและเพิ่มความรุนแรงของการเหยียดเชื้อชาติ”
อันตรายอื่น ๆ ได้แก่:
-
ความเป็นส่วนตัวและการเฝ้าระวัง: ระบบ AI มักต้องการข้อมูลส่วนบุคคลจำนวนมาก (โพสต์โซเชียลมีเดีย, บันทึกสุขภาพ ฯลฯ) ซึ่งเพิ่มความเสี่ยงในการถูกละเมิด หากรัฐบาลหรือบริษัทใช้ AI วิเคราะห์ข้อมูลของคุณโดยไม่ได้รับอนุญาต อาจนำไปสู่การเฝ้าระวังที่ล่วงล้ำ
บริแทนนิกาเตือนถึง “ความเสี่ยงด้านความเป็นส่วนตัวที่อันตราย” จาก AI เช่น การใช้ AI ในการให้คะแนนเครดิตสังคม – ที่ประชาชนถูกจัดอันดับโดยอัลกอริทึม – ซึ่งสหภาพยุโรปได้แบนการปฏิบัตินี้ว่าเป็น “ไม่ยอมรับได้”
แม้แต่แชทบอทยอดนิยมก็เคยก่อให้เกิดความกังวล: ในปี 2023 อิตาลีระงับการใช้ ChatGPT ชั่วคราวเนื่องจากปัญหาความเป็นส่วนตัวของข้อมูล -
ข้อมูลเท็จและดีพเฟค: AI สามารถสร้างข้อความ ภาพ หรือวิดีโอปลอมที่สมจริง ทำให้การสร้าง ดีพเฟค – วิดีโอปลอมของคนดังหรือข่าวปลอม – ง่ายขึ้น
บริแทนนิกาชี้ว่า AI สามารถแพร่กระจาย “ข้อมูลเท็จที่มีการเมืองและอันตราย” ผู้เชี่ยวชาญเตือนว่าข้อมูลปลอมเหล่านี้อาจถูกใช้เพื่อบิดเบือนการเลือกตั้งหรือความคิดเห็นสาธารณะ
ในเหตุการณ์หนึ่ง ภาพ AI ของผู้นำโลกที่แชร์ข่าวปลอมกลายเป็นไวรัลก่อนถูกพิสูจน์ว่าไม่จริง นักวิทยาศาสตร์ชี้ว่า หากไม่มีการควบคุม ข้อมูลเท็จที่ขับเคลื่อนด้วย AI อาจทวีความรุนแรงขึ้น (เช่น สุนทรพจน์ปลอมหรือภาพตัดต่อที่กฎหมายปัจจุบันยังไม่พร้อมรับมือ) -
การสูญเสียงานและความวุ่นวายทางเศรษฐกิจ: ด้วยการทำงานอัตโนมัติ AI จะเปลี่ยนแปลงสถานที่ทำงาน กองทุนการเงินระหว่างประเทศรายงานว่าประมาณ 40% ของงานทั่วโลก (และ 60% ในประเทศพัฒนาแล้ว) มีความเสี่ยงต่อการถูกแทนที่ด้วย AI ซึ่งรวมถึงงานโรงงานและงานระดับกลาง เช่น การบัญชีหรือการเขียน
แม้ AI จะช่วยเพิ่มผลผลิต (ซึ่งอาจทำให้ค่าจ้างสูงขึ้นในระยะยาว) แต่คนงานจำนวนมากอาจต้องฝึกอบรมใหม่หรือเผชิญกับการว่างงานในระยะสั้น
ผู้นำเทคโนโลยียอมรับความกังวลนี้: ซีอีโอของไมโครซอฟท์กล่าวว่า AI อาจแทนที่มืออาชีพที่มีทักษะได้อย่างรวดเร็ว -
ความปลอดภัยและการใช้งานในทางที่ผิด: เช่นเดียวกับเทคโนโลยีอื่น ๆ AI สามารถถูกใช้ในทางที่เป็นอันตราย อาชญากรไซเบอร์ใช้ AI สร้างอีเมลฟิชชิ่งที่น่าเชื่อถือ หรือสแกนระบบหาจุดอ่อน
ผู้เชี่ยวชาญทางทหารกังวลเกี่ยวกับ อาวุธอัตโนมัติ: โดรนหรือหุ่นยนต์ที่เลือกเป้าหมายโดยไม่ต้องได้รับอนุมัติจากมนุษย์
รายงานล่าสุดจากนักวิจัย AI เตือนว่าเรายังขาดสถาบันที่จะหยุด “ผู้ไม่หวังดีที่อาจใช้หรือพัฒนาความสามารถในทางอันตราย” เช่น ระบบโจมตีอัตโนมัติ
กล่าวอีกนัยหนึ่ง ระบบ AI ที่ควบคุมทางกายภาพ (เช่น อาวุธ) อาจเป็นอันตรายอย่างยิ่งหากเกิดความผิดพลาดหรือถูกตั้งโปรแกรมในทางร้าย -
การสูญเสียการควบคุมของมนุษย์: นักคิดบางคนชี้ว่า หาก AI มีพลังมากกว่าปัจจุบันมาก อาจทำงานในทางที่ไม่คาดคิด แม้ AI ปัจจุบันจะไม่มีสติหรือความรู้ตัว แต่ AI ทั่วไปในอนาคต (AGI) อาจมีเป้าหมายที่ไม่สอดคล้องกับค่านิยมของมนุษย์
นักวิทยาศาสตร์ AI ชั้นนำเตือนว่า “ระบบ AI ทั่วไปที่ทรงพลังสูง” อาจปรากฏในอนาคตอันใกล้นี้ หากเราไม่เตรียมพร้อม
ผู้ได้รับรางวัลโนเบล Geoffrey Hinton และผู้เชี่ยวชาญอื่น ๆ ยังระบุความเสี่ยงที่เพิ่มขึ้นว่า AI อาจทำร้ายมนุษยชาติหาก AI ขั้นสูงไม่สอดคล้องกับความต้องการของเรา แม้ความเสี่ยงนี้ยังไม่แน่นอน แต่ก็เป็นแรงผลักดันให้เกิดการเรียกร้องความระมัดระวังอย่างสูง -
ผลกระทบด้านพลังงานและสิ่งแวดล้อม: การฝึกและใช้งานโมเดล AI ขนาดใหญ่ใช้ไฟฟ้ามาก ยูเนสโกรายงานว่าการใช้พลังงานของ AI สร้างสรรค์ในแต่ละปีเทียบเท่ากับประเทศแอฟริกาขนาดเล็กแห่งหนึ่ง และกำลังเพิ่มขึ้นอย่างรวดเร็ว
สิ่งนี้อาจทำให้ปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศรุนแรงขึ้น หากเราไม่ใช้วิธีที่เป็นมิตรกับสิ่งแวดล้อม
ข่าวดีคือ นักวิจัยกำลังหาทางแก้ไข: งานวิจัยของยูเนสโกแสดงให้เห็นว่าการใช้โมเดลขนาดเล็กและมีประสิทธิภาพสำหรับงานเฉพาะ สามารถลดการใช้พลังงานของ AI ได้ถึง 90% โดยไม่สูญเสียความแม่นยำ
สรุปแล้ว อันตรายที่แท้จริงของ AI ในปัจจุบันส่วนใหญ่เกิดจากวิธีที่ผู้คนใช้งาน หากบริหารจัดการอย่างรอบคอบ ประโยชน์ของ AI (ด้านสุขภาพ ความสะดวกสบาย และความปลอดภัย) มีมากมาย
แต่หากปล่อยปละละเลย AI อาจก่อให้เกิดอคติ อาชญากรรม และอุบัติเหตุ
จุดร่วมของอันตรายเหล่านี้คือ ขาดการควบคุมหรือการกำกับดูแล: เครื่องมือ AI มีพลังและรวดเร็ว จึงเกิดข้อผิดพลาดหรือการใช้งานผิดพลาดในวงกว้างหากเราไม่เข้าแทรกแซง
สิ่งที่ผู้เชี่ยวชาญและเจ้าหน้าที่กล่าว
ด้วยประเด็นเหล่านี้ ผู้นำและนักวิจัยหลายคนได้แสดงความคิดเห็น มี ฉันทามติของผู้เชี่ยวชาญ AI จำนวนมากในช่วงไม่กี่ปีที่ผ่านมา
ในปี 2024 กลุ่มนักวิทยาศาสตร์ AI ชั้นนำ 25 คน (จากมหาวิทยาลัยออกซ์ฟอร์ด, เบิร์กลีย์, ผู้ได้รับรางวัลทัวริง ฯลฯ) ได้เผยแพร่แถลงการณ์ฉันทามติ เรียกร้องให้ดำเนินการอย่างเร่งด่วน
พวกเขาเตือนรัฐบาลทั่วโลกให้เตรียมพร้อมทันที: “หากเราประเมินความเสี่ยงของ AI ต่ำเกินไป ผลลัพธ์อาจเลวร้ายอย่างมาก” และเรียกร้องให้สนับสนุนการวิจัยความปลอดภัย AI และสร้างหน่วยงานกำกับดูแล AI ที่ทรงพลัง
พวกเขาเน้นว่า การพัฒนา AI ก้าวหน้าอย่างรวดเร็ว “โดยความปลอดภัยเป็นเรื่องรอง” และปัจจุบันเรายังขาดสถาบันที่จะป้องกันการใช้งานที่ผิดพลาด
ผู้นำเทคโนโลยียังสะท้อนความระมัดระวังนี้ ซีอีโอของ OpenAI แซม อัลท์แมน – บริษัทที่สร้าง ChatGPT – บอกกับ The New York Times ว่าการสร้าง AI ขั้นสูงเหมือนกับ “โครงการแมนฮัตตัน” สำหรับยุคดิจิทัล
เขายอมรับว่าเครื่องมือเดียวกันที่สามารถเขียนเรียงความหรือโค้ดได้ อาจ ก่อให้เกิด “การใช้งานผิดพลาด อุบัติเหตุรุนแรง และความวุ่นวายทางสังคม” หากไม่จัดการอย่างระมัดระวัง
ปลายปี 2023 ผู้เชี่ยวชาญ AI กว่า 1,000 คน (รวมถึงอีลอน มัสก์, สตีฟ วอซเนียก ผู้ร่วมก่อตั้งแอปเปิล และนักวิจัย AI หลายคน) ลงนามในจดหมายเปิดผนึก เรียกร้องให้ หยุดชั่วคราว การฝึกโมเดล AI รุ่นถัดไป
พวกเขาเตือนว่าเรากำลังอยู่ใน “การแข่งขันที่ควบคุมไม่ได้” เพื่อสร้าง AI ที่ทรงพลังขึ้น ซึ่งแม้แต่ผู้สร้างเองก็ “ไม่เข้าใจ ไม่สามารถทำนาย หรือควบคุมได้อย่างน่าเชื่อถือ”
ในเวทีสาธารณะ ผู้เชี่ยวชาญเน้นย้ำความเสี่ยงเฉพาะ ซีอีโอของ Google DeepMind เดมิส ฮัสซาบิส ชี้ว่า ภัยคุกคามที่ใหญ่ที่สุด ไม่ใช่การว่างงาน แต่เป็นการใช้งานผิด: อาชญากรไซเบอร์หรือรัฐที่ไม่หวังดีใช้ AI เพื่อทำร้ายสังคม
เขาชี้ว่าในไม่ช้า AI อาจเทียบเท่าหรือเกินความฉลาดของมนุษย์ และ “ผู้ไม่หวังดีอาจนำเทคโนโลยีเดียวกันไปใช้ในทางที่เป็นอันตราย”
กล่าวคือ แม้เราจะจัดการกับการสูญเสียงานได้ เราก็ต้องป้องกันไม่ให้เครื่องมือ AI ตกไปอยู่ในมือผิด
รัฐบาลและองค์กรระหว่างประเทศกำลังให้ความสนใจ ทำเนียบขาว (สหรัฐฯ) ออกคำสั่งบริหารในปี 2023 ระบุว่า AI “มีศักยภาพพิเศษทั้งในด้านโอกาสและความเสี่ยง” และเรียกร้องให้ “ใช้ AI อย่างรับผิดชอบ” ผ่านความร่วมมือทั่วสังคมเพื่อลดความเสี่ยงอย่างมีนัยสำคัญ
สหภาพยุโรปผ่านกฎหมาย AI ฉบับแรกของโลก (มีผลบังคับใช้ปี 2024) ห้ามการปฏิบัติที่อันตราย เช่น การให้คะแนนเครดิตสังคมโดยรัฐบาล และกำหนดให้ AI ที่มีความเสี่ยงสูง (ในด้านสุขภาพ การบังคับใช้กฎหมาย ฯลฯ) ต้องผ่านการตรวจสอบอย่างเข้มงวด
ยูเนสโก (หน่วยงานสหประชาชาติด้านการศึกษาและวัฒนธรรม) เผยแพร่คำแนะนำด้านจริยธรรม AI ระดับโลก เรียกร้องความเป็นธรรม ความโปร่งใส และการคุ้มครองสิทธิมนุษยชนใน AI
แม้องค์กรด้านนโยบายวิทยาศาสตร์ เช่น NIST (สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐฯ) ก็ได้ออก กรอบการจัดการความเสี่ยง AI เพื่อแนะนำบริษัทในการสร้าง AI ที่น่าเชื่อถือ
เสียงเหล่านี้เห็นพ้องกันในประเด็นหนึ่ง: AI จะไม่หยุดพัฒนาเอง เรา ต้อง สร้างมาตรการป้องกัน ซึ่งรวมถึงการแก้ไขทางเทคนิค (ตรวจสอบอคติ ทดสอบความปลอดภัย) และกฎหมายหรือหน่วยงานกำกับดูแลใหม่
ตัวอย่างเช่น ผู้ร่างกฎหมายทั่วโลกกำลังพิจารณาการตั้งคณะกรรมการความปลอดภัย AI คล้ายกับที่มีสำหรับเทคโนโลยีนิวเคลียร์
เป้าหมายไม่ใช่การหยุดนวัตกรรม แต่เพื่อให้เกิดขึ้นภายใต้แนวทางที่รอบคอบ
มาตรการป้องกันและการกำกับดูแล
โชคดีที่มีหลายแนวทางแก้ไขที่กำลังดำเนินการอยู่ แนวคิดหลักคือ “ความปลอดภัยของ AI ตั้งแต่ต้นทาง” บริษัทต่าง ๆ เริ่มสร้างกฎจริยธรรมเข้าไปในกระบวนการพัฒนา AI มากขึ้น
ตัวอย่างเช่น ห้องปฏิบัติการ AI ทดสอบโมเดลเพื่อหาความลำเอียงก่อนปล่อย และเพิ่มตัวกรองเนื้อหาเพื่อป้องกันผลลัพธ์ที่ไม่เหมาะสมหรือเท็จ รัฐบาลและสถาบันต่าง ๆ กำลังทำให้เรื่องนี้เป็นกฎหมาย
กฎหมาย AI ของสหภาพยุโรป ห้ามการใช้งานที่อันตรายบางประเภทโดยสิ้นเชิง และจัดประเภทการใช้งานอื่น ๆ ว่าเป็น “ความเสี่ยงสูง” (ต้องผ่านการตรวจสอบ)
ในทำนองเดียวกัน กรอบจริยธรรม AI ของยูเนสโกเรียกร้องมาตรการ เช่น การตรวจสอบความเป็นธรรม การป้องกันความปลอดภัยทางไซเบอร์ และกระบวนการร้องเรียนที่เข้าถึงได้
ในทางปฏิบัติ องค์กรกำหนดมาตรฐานกำลังออกแนวทาง
กรอบงานของ NIST ในสหรัฐฯ ที่กล่าวถึงก่อนหน้านี้ ให้มาตรฐานสมัครใจสำหรับองค์กรในการประเมินและลดความเสี่ยง AI
ในระดับนานาชาติ กลุ่มอย่าง OECD และสหประชาชาติทำงานร่วมกันเพื่อกำหนดหลักการ AI (หลายประเทศได้ลงนามรับรองแล้ว)
แม้แต่บริษัทและมหาวิทยาลัยก็จัดตั้งสถาบันและกลุ่มวิจัยความปลอดภัย AI เพื่อศึกษาความเสี่ยงระยะยาว
นอกจากนี้ กฎระเบียบปัจจุบันหลายฉบับมุ่งจัดการกับความเสียหายเฉพาะ
เช่น กฎหมายคุ้มครองผู้บริโภคถูกนำมาใช้กับ AI
เอกสารภายในของ Meta เผยว่าแชทบอท AI มีพฤติกรรมจีบเด็ก ซึ่งทำให้หน่วยงานกำกับดูแลไม่พอใจ (เครื่องมือของ Meta ไม่ได้รับอนุญาตภายใต้กฎหมายคุ้มครองเด็กที่มีอยู่)
เจ้าหน้าที่กำลังเร่งปรับปรุงกฎหมายเกี่ยวกับคำพูดเกลียดชัง ลิขสิทธิ์ และความเป็นส่วนตัวให้ครอบคลุมเนื้อหาที่สร้างโดย AI
ตามที่ผู้เชี่ยวชาญชาวนิวซีแลนด์คนหนึ่งกล่าว กฎหมายหลายฉบับในปัจจุบัน “ไม่ได้ออกแบบมาเพื่อรองรับ AI สร้างสรรค์” ดังนั้นผู้ร่างกฎหมายจึงกำลังตามให้ทัน
แนวโน้มโดยรวมชัดเจน: AI กำลังถูกปฏิบัติคล้ายกับเทคโนโลยีที่ใช้ประโยชน์สองทางอื่น ๆ
เช่นเดียวกับที่มีกฎหมายจราจรสำหรับรถยนต์ หรือมาตรฐานความปลอดภัยสำหรับสารเคมี สังคมกำลังเริ่มสร้าง แนวป้องกัน สำหรับ AI
ซึ่งรวมถึง: การวิจัยความเสี่ยง AI อย่างต่อเนื่อง ความร่วมมือภาครัฐและเอกชนด้านความปลอดภัย แคมเปญให้ความรู้เกี่ยวกับดีพเฟค และแม้แต่การลงประชามติถามประชาชนว่าจะให้เครื่องจักรมีอิสระมากน้อยเพียงใด
>>>เรียนรู้เพิ่มเติม:
ดังนั้น AI อันตรายหรือไม่? คำตอบมีความซับซ้อน AI ไม่ใช่สิ่งชั่วร้ายโดยธรรมชาติ แต่เป็นเครื่องมือที่มนุษย์สร้างขึ้น
ในรูปแบบปฏิบัติหลายอย่างในปัจจุบัน AI ได้นำประโยชน์มหาศาลมาสู่การแพทย์ การศึกษา อุตสาหกรรม และอื่น ๆ (ตามที่องค์กรอย่างยูเนสโกและสหภาพยุโรปเน้นย้ำ)
ในขณะเดียวกัน แทบทุกคนเห็นพ้องว่า AI อาจเป็นอันตราย ถ้า พลังของมันถูกใช้อย่างผิดวิธีหรือขาดการกำกับดูแล
ความกังวลทั่วไปได้แก่ การละเมิดความเป็นส่วนตัว อคติ ข้อมูลเท็จ การเปลี่ยนแปลงงาน และความเสี่ยงสมมติของ AI ที่ฉลาดเกินควบคุม
เยาวชนที่เรียนรู้เกี่ยวกับ AI ควรให้ความสำคัญกับ ทั้งสองด้าน การตระหนักถึงอันตรายจริง เช่น อย่าไว้ใจ AI โดยไม่ไตร่ตรอง หรือแชร์ข้อมูลส่วนตัวโดยไม่ระมัดระวัง เป็นสิ่งที่ฉลาด
แต่ก็สำคัญที่จะเห็นว่าผู้เชี่ยวชาญและรัฐบาลกำลังทำงานอย่างจริงจังเพื่อทำให้ AI ปลอดภัยขึ้น – โดยพัฒนากฎหมาย (เช่น กฎหมาย AI ของสหภาพยุโรป) แนวทาง (เช่น คำแนะนำจริยธรรมของยูเนสโก) และเทคโนโลยี (เช่น การตรวจจับอคติ) เพื่อจับปัญหาแต่เนิ่น ๆ
สรุปคือ AI ก็เหมือนเทคโนโลยีทรงพลังอื่น ๆ ที่สามารถสร้างประโยชน์อย่างมากเมื่อใช้อย่างรับผิดชอบ และก่อให้เกิดอันตรายหากใช้อย่างผิดวิธี
ฉันทามติในหมู่นักวิทยาศาสตร์และผู้กำหนดนโยบายคือ เราไม่ควรสร้างความหวาดกลัวหรือเพิกเฉยต่อ AI แต่ควรติดตามข้อมูลและมีส่วนร่วมในการกำหนดอนาคตของมัน
ด้วย “แนวป้องกัน” ที่เหมาะสม – การพัฒนา AI อย่างมีจริยธรรม การกำกับดูแลที่เข้มแข็ง และความตระหนักรู้ของสาธารณะ – เราสามารถนำ AI ไปสู่ความปลอดภัยและทำให้มันเป็นประโยชน์ต่อมนุษยชาติโดยไม่กลายเป็นอันตราย