ปัญญาประดิษฐ์ได้เปิดศักยภาพในการสร้าง “ดีพเฟค” – สื่อปลอมที่สมจริงอย่างยิ่งแต่ถูกสร้างขึ้นใหม่ ตั้งแต่คลิปวิดีโอที่สลับใบหน้าได้อย่างเนียนจนถึงเสียงโคลนที่เหมือนเสียงจริง ดีพเฟคเป็นยุคใหม่ที่การเห็น (หรือการได้ยิน) ไม่ได้หมายความว่าจะเชื่อเสมอไป เทคโนโลยีนี้นำโอกาสน่าตื่นเต้นในการสร้างนวัตกรรมในหลายอุตสาหกรรม แต่ก็มีความเสี่ยงที่ร้ายแรงเช่นกัน
ในบทความนี้ เราจะสำรวจว่า AI ดีพเฟค คืออะไร ทำงานอย่างไร และโอกาสกับอันตรายหลักที่เทคโนโลยีนี้นำมาในโลกปัจจุบัน
ดีพเฟคคืออะไร?
ดีพเฟค คือสื่อสังเคราะห์ (วิดีโอ เสียง รูปภาพ หรือแม้แต่ข้อความ) ที่ถูกสร้างหรือแก้ไขโดย AI เพื่อเลียนแบบเนื้อหาจริงอย่างน่าเชื่อถือ คำนี้มาจาก “deep learning” (อัลกอริทึม AI ขั้นสูง) และ “fake” และเริ่มเป็นที่รู้จักในวงกว้างตั้งแต่ปี 2017 จากฟอรัม Reddit ที่ผู้ใช้แชร์วิดีโอสลับใบหน้าคนดัง
ดีพเฟคสมัยใหม่มักใช้เทคนิคอย่างเครือข่ายปฏิปักษ์สร้างสรรค์ (GANs) ซึ่งเป็นเครือข่ายประสาทสองชุดที่ฝึกฝนกันเองเพื่อสร้างของปลอมที่สมจริงขึ้นเรื่อยๆ ในช่วงสิบปีที่ผ่านมา ความก้าวหน้าของ AI ทำให้การสร้างดีพเฟคง่ายและถูกลง: ทุกคนที่เชื่อมต่ออินเทอร์เน็ตมีเครื่องมือสร้างสื่อสังเคราะห์ในมือ
ดีพเฟคในช่วงแรกมีชื่อเสียงในทางลบจากการใช้งานที่เป็นอันตราย (เช่น การสลับใบหน้าคนดังในวิดีโอปลอม) ทำให้เทคโนโลยีนี้ถูกมองในแง่ลบ อย่างไรก็ตาม ไม่ใช่สื่อสังเคราะห์ที่สร้างโดย AI ทุกชิ้นจะเป็นสิ่งเลวร้าย เช่นเดียวกับเทคโนโลยีอื่นๆ ดีพเฟคเป็น เครื่องมือ – ผลกระทบ (ดีหรือร้าย) ขึ้นอยู่กับการใช้งาน
ตามที่เวิลด์ อีโคโนมิก ฟอรัมระบุ แม้จะมีตัวอย่างเชิงลบมากมาย “สื่อสังเคราะห์เหล่านี้ก็สามารถสร้างประโยชน์ได้เช่นกัน” ในส่วนถัดไป เราจะเจาะลึกการใช้งานดีพเฟค AI ที่โดดเด่นในด้านบวก พร้อมกับความเสี่ยงและการละเมิดที่ร้ายแรงที่เกี่ยวข้องกับเทคโนโลยีนี้
โอกาสและการใช้งานเชิงบวกของ AI ดีพเฟค
แม้จะมีชื่อเสียงที่ถกเถียงกัน ดีพเฟค (ซึ่งมักถูกเรียกอย่างเป็นกลางว่า “สื่อสังเคราะห์”) มี การใช้งานเชิงบวก หลายด้านในวงการสร้างสรรค์ การศึกษา และงานมนุษยธรรม:
-
ความบันเทิงและสื่อ: ผู้สร้างภาพยนตร์ใช้เทคนิคดีพเฟคเพื่อสร้างเอฟเฟกต์ภาพที่น่าทึ่งและแม้แต่ทำให้ดาราดูเด็กลงบนจอภาพยนตร์ เช่น ภาพยนตร์อินเดียน่า โจนส์เรื่องล่าสุดที่สร้างภาพดิจิทัลของแฮร์ริสัน ฟอร์ดในวัยหนุ่มโดยฝึก AI จากฟุตเทจเก่าหลายสิบปี เทคโนโลยีนี้ช่วยฟื้นฟูบุคคลในประวัติศาสตร์หรือดาราที่ล่วงลับเพื่อการแสดงใหม่ และช่วยปรับปรุงการพากย์เสียงโดยจับการเคลื่อนไหวริมฝีปากได้อย่างแม่นยำ
โดยรวมแล้ว ดีพเฟคสามารถสร้างเนื้อหาที่สมจริงและดื่มด่ำมากขึ้นในภาพยนตร์ โทรทัศน์ และเกม -
การศึกษาและการฝึกอบรม: เทคโนโลยีดีพเฟคช่วยทำให้ประสบการณ์การเรียนรู้มีความน่าสนใจและโต้ตอบได้มากขึ้น ครูผู้สอนสามารถสร้างการจำลองการศึกษา หรือการแสดงซ้ำเหตุการณ์ทางประวัติศาสตร์ที่มีตัวละครสมจริงของบุคคลมีชื่อเสียง ช่วยให้บทเรียนประวัติศาสตร์หรือวิชาวิทยาศาสตร์มีชีวิตชีวา
สถานการณ์จำลองบทบาทสมจริงที่สร้างโดย AI (เช่น การจำลองเหตุฉุกเฉินทางการแพทย์หรือสถานการณ์ในห้องนักบิน) ช่วยฝึกอบรมผู้เชี่ยวชาญในด้านสุขภาพ การบิน ทหาร และอื่นๆ การจำลองเหล่านี้เตรียมผู้เรียนให้พร้อมรับมือสถานการณ์จริงในสภาพแวดล้อมที่ปลอดภัยและควบคุมได้ -
การเข้าถึงและการสื่อสาร: สื่อที่สร้างโดย AI กำลังทำลายอุปสรรคด้านภาษาและการสื่อสาร นักแปลดีพเฟค สามารถพากย์วิดีโอเป็นหลายภาษาโดยยังคงเสียงและท่าทางของผู้พูดไว้ – ศิลปินคนหนึ่งชื่อ FKA Twigs ถึงกับสร้างดีพเฟคของตัวเองที่พูดภาษาที่เธอไม่รู้จักได้ เทคโนโลยีนี้มีศักยภาพช่วยชีวิต: บริการฉุกเฉินใช้การแปลเสียง AI เพื่อแปลสายด่วน 911 ได้เร็วขึ้น ลดเวลาการแปลได้ถึง 70% ในสถานการณ์วิกฤต
ในทำนองเดียวกัน อวตารภาษามือที่ขับเคลื่อนด้วยดีพเฟคกำลังถูกพัฒนาเพื่อแปลคำพูดเป็นภาษามือสำหรับผู้พิการทางการได้ยิน ผลิตวิดีโอภาษามือที่สมจริงจนอัลกอริทึมในงานวิจัยเบื้องต้นไม่สามารถแยกแยะจากผู้ใช้ภาษามือจริงได้ อีกการใช้งานที่มีผลกระทบคือการโคลนเสียงส่วนบุคคลสำหรับผู้ที่สูญเสียความสามารถในการพูด เช่น ส.ส.สหรัฐที่ป่วยเป็นโรคเสื่อมระบบประสาท ใช้เสียงโคลน AI ของตัวเองพูดกับผู้ร่างกฎหมายหลังไม่สามารถพูดได้ ช่วยให้เธอ “พูดด้วยน้ำเสียงของตัวเอง” แม้ในขณะที่ป่วย
การใช้งานเหล่านี้แสดงให้เห็นว่าดีพเฟคช่วยเพิ่มการเข้าถึงและรักษาเสียงและการสื่อสารของผู้คน -
สุขภาพและการบำบัด: ในวงการแพทย์ สื่อสังเคราะห์ ช่วยทั้งงานวิจัยและความเป็นอยู่ของผู้ป่วย ภาพทางการแพทย์ที่สร้างโดย AI สามารถเพิ่มข้อมูลฝึกอบรมสำหรับอัลกอริทึมวินิจฉัย – งานวิจัยหนึ่งพบว่าระบบ AI ตรวจจับเนื้องอกที่ฝึกด้วยภาพ MRI ที่สร้างโดย GAN เป็นส่วนใหญ่ มีประสิทธิภาพ เทียบเท่า กับระบบที่ฝึกด้วยภาพจริง ซึ่งหมายความว่าดีพเฟคช่วยเพิ่มข้อมูลฝึกอบรมทางการแพทย์โดยไม่เสี่ยงต่อความเป็นส่วนตัวของผู้ป่วย
ในด้านบำบัด ดีพเฟคที่ควบคุมได้ยังช่วยปลอบประโลมผู้ป่วย เช่น ผู้ดูแลทดลองสร้างวิดีโอที่คนรักของผู้ป่วยอัลไซเมอร์ปรากฏในวัยหนุ่มสาว (ช่วงเวลาที่ผู้ป่วยจำได้ดีที่สุด) เพื่อลดความสับสนและความวิตกกังวล ในแคมเปญสุขภาพสาธารณะ เทคนิคดีพเฟคช่วยส่งสารที่ทรงพลัง เช่น ในแคมเปญต่อต้านมาลาเรีย วิดีโอของดาวเตะฟุตบอล เดวิด เบ็คแฮม ถูกแก้ไขด้วย AI ให้พูดได้ถึงเก้าภาษา ช่วยให้แคมเปญเข้าถึงผู้คนทั่วโลกกว่า ครึ่งพันล้านคน แสดงให้เห็นว่าสื่อสังเคราะห์สามารถขยายเสียงสารสำคัญสู่ผู้ชมหลากหลาย -
ความเป็นส่วนตัวและการไม่เปิดเผยตัวตน: น่าสนใจที่ความสามารถสลับใบหน้าเดียวกันที่สร้างข่าวปลอมได้ ยังสามารถ ปกป้องความเป็นส่วนตัว ได้ นักกิจกรรม ผู้แจ้งเบาะแส หรือบุคคลที่เปราะบางสามารถถูกถ่ายทำโดยใบหน้าที่ถูกแทนที่ด้วยใบหน้าที่สร้างโดย AI อย่างสมจริง ปกปิดตัวตนโดยไม่ต้องเบลอชัดเจน
ตัวอย่างที่โดดเด่นคือสารคดี “Welcome to Chechnya” (2020) ที่ใช้การซ้อนใบหน้าที่สร้างโดย AI เพื่อปกปิดตัวตนนักกิจกรรม LGBT ที่หนีการถูกข่มเหง ในขณะเดียวกันยังคงแสดงอารมณ์และการแสดงออกทางใบหน้า ทำให้ผู้ชมเชื่อมโยงกับมนุษยธรรมของพวกเขา แม้ใบหน้าที่เห็นจะไม่ใช่ของจริง
นักวิจัยกำลังขยายแนวคิดนี้สู่เครื่องมือความเป็นส่วนตัวในชีวิตประจำวัน เช่น ระบบ “การไม่เปิดเผยตัวตน” ที่สามารถแทนที่ใบหน้าของบุคคลในภาพที่แชร์บนโซเชียลมีเดียด้วยใบหน้าสังเคราะห์ที่คล้ายกัน หากบุคคลนั้นไม่ได้ยินยอมให้ระบุตัวตน เช่นเดียวกับเทคโนโลยี voice skin ที่เปลี่ยนเสียงผู้พูดแบบเรียลไทม์ (เช่น ในเกมออนไลน์หรือการประชุมเสมือน) เพื่อป้องกันอคติหรือการล่วงละเมิด ในขณะที่ยังคงถ่ายทอดอารมณ์และเจตนาเดิม
การใช้งานเหล่านี้ชี้ให้เห็นว่าดีพเฟคอาจช่วยให้บุคคลควบคุมตัวตนและความปลอดภัยในโลกดิจิทัลได้
การสลับใบหน้าดีพเฟคสามารถใช้เพื่อ ไม่เปิดเผยตัวตน ของบุคคล เช่น ในภาพยนตร์ Welcome to Chechnya ที่ปกป้องนักกิจกรรมที่เสี่ยงภัยโดยซ้อนใบหน้าของนักแสดงอาสาสมัครผ่าน AI ปกปิดตัวตนในขณะที่ยังคงแสดงอารมณ์ธรรมชาติ แสดงให้เห็นว่าสื่อสังเคราะห์ช่วยรักษาความเป็นส่วนตัวในสถานการณ์ที่ละเอียดอ่อน
โดยสรุป ดีพเฟคเป็นดาบสองคม ด้านหนึ่ง “สื่อสังเคราะห์ไม่ใช่สิ่งที่ดีหรือร้ายโดยเนื้อแท้ – ผลกระทบขึ้นอยู่กับผู้ใช้และเจตนา” ตัวอย่างข้างต้นเน้นถึง โอกาส ในการใช้เทคโนโลยีดีพเฟคเพื่อสร้างสรรค์ การสื่อสาร และประโยชน์ทางสังคม
อย่างไรก็ตาม ด้านตรงข้ามของเครื่องมือทรงพลังนี้คือศักยภาพอันมหาศาลในการก่ออันตรายเมื่อใช้ในทางที่ผิด ปีหลังๆ มีเรื่องเตือนใจมากมายเกี่ยวกับการหลอกลวงและการละเมิดที่เกิดจากดีพเฟค ซึ่งเราจะพิจารณาต่อไป
ความเสี่ยงและการใช้งานในทางที่ผิดของดีพเฟค
การแพร่หลายของดีพเฟคที่สร้างได้ง่ายยังก่อให้เกิด ความกังวลและภัยคุกคาม อย่างรุนแรง จริงๆ แล้ว การสำรวจในปี 2023 พบว่า 60% ของคนอเมริกันรู้สึก “กังวลอย่างมาก” ต่อดีพเฟค – จัดเป็นความกลัวอันดับหนึ่งที่เกี่ยวข้องกับ AI ความเสี่ยงหลักที่เกี่ยวข้องกับเทคโนโลยีดีพเฟค ได้แก่:
-
ข้อมูลผิดพลาดและการบิดเบือนทางการเมือง: ดีพเฟคสามารถถูกใช้เป็นอาวุธในการแพร่กระจาย ข้อมูลเท็จ ในวงกว้าง วิดีโอหรือเสียงปลอมของบุคคลสาธารณะอาจแสดงให้เห็นว่าพวกเขาพูดหรือทำสิ่งที่ไม่เคยเกิดขึ้นจริง หลอกลวงประชาชน ข้อมูลเท็จเหล่านี้อาจทำลายความเชื่อมั่นในสถาบัน ชักจูงความคิดเห็นสาธารณะ หรือแม้แต่ก่อให้เกิดความวุ่นวาย
ตัวอย่างเช่น ในช่วงสงครามรัสเซีย-ยูเครน มีวิดีโอดีพเฟคที่เผยแพร่ว่า ประธานาธิบดีโวโลดิเมียร์ เซเลนสกี ดูเหมือนจะยอมจำนน แม้ว่าวิดีโอนี้ถูกพิสูจน์ว่าเป็นของปลอมอย่างรวดเร็วด้วยข้อผิดพลาดที่เห็นได้ชัด (เช่น หัวที่ใหญ่ผิดปกติและเสียงแปลก) แต่ก็แสดงให้เห็นถึงศักยภาพที่ฝ่ายตรงข้ามจะใช้ดีพเฟคในโฆษณาชวนเชื่อ
ในทำนองเดียวกัน ภาพปลอมของ “การระเบิด” ใกล้เพนตากอนที่แพร่สะพัดในปี 2023 ทำให้ตลาดหุ้นตกชั่วคราวก่อนที่เจ้าหน้าที่จะชี้แจงว่าเป็นภาพที่สร้างโดย AIเมื่อดีพเฟคพัฒนายิ่งขึ้น ความกังวลคือมันอาจถูกใช้สร้างข่าวปลอมที่น่าเชื่อถืออย่างยิ่ง ทำให้ประชาชนแยกแยะความจริงจากเรื่องแต่งได้ยากขึ้น ไม่เพียงแต่แพร่ข้อมูลเท็จ แต่ยังสร้างผลกระทบ “ผลประโยชน์ของคนโกหก” – ผู้คนอาจเริ่มไม่เชื่อวิดีโอหรือหลักฐานจริงๆ อ้างว่าเป็นดีพเฟค ผลลัพธ์โดยรวมคือการเสื่อมถอยของความจริงและความไว้วางใจในสื่อและการสนทนาทางประชาธิปไตย
-
สื่อลามกที่ไม่ได้รับความยินยอมและการล่วงละเมิด: หนึ่งในการใช้งานที่เป็นอันตรายและแพร่หลายที่สุดของดีพเฟคคือการสร้างเนื้อหาลามกปลอม โดยใช้ภาพถ่ายไม่กี่ภาพ ผู้โจมตี (มักผ่านฟอรัมหรือแอปพลิเคชันที่ไม่เปิดเผยตัวตน) สามารถสร้างวิดีโอลามกสมจริงของบุคคล – โดยเฉพาะผู้หญิง – โดยไม่ได้รับความยินยอม นี่เป็นการละเมิดความเป็นส่วนตัวและการล่วงละเมิดทางเพศอย่างรุนแรง
งานวิจัยพบว่า วิดีโอดีพเฟคส่วนใหญ่ในอินเทอร์เน็ต (ประมาณ 90–95%) เป็นสื่อลามกที่ไม่ได้รับความยินยอม เกือบทั้งหมดมีผู้หญิงเป็นเหยื่อ วิดีโอปลอมเหล่านี้สร้างความเสียหายส่วนตัวอย่างมาก ทำให้เกิดความอับอาย ความบอบช้ำ ความเสียหายต่อชื่อเสียง และแม้แต่การข่มขู่เรียกค่าไถ่ นักแสดง นักข่าว และบุคคลทั่วไปหลายคนพบว่าใบหน้าของตนถูกนำไปใส่ในเนื้อหาผู้ใหญ่
เจ้าหน้าที่บังคับใช้กฎหมายและผู้กำหนดนโยบายเริ่มตื่นตัวต่อแนวโน้มนี้มากขึ้น เช่น ในสหรัฐฯ หลายรัฐและรัฐบาลกลางได้เสนอหรือผ่านกฎหมายเพื่อทำให้สื่อลามกดีพเฟคเป็นอาชญากรรมและให้เหยื่อมีช่องทางทางกฎหมาย ความเสียหายจากสื่อลามกดีพเฟคแสดงให้เห็นว่าเทคโนโลยีนี้ถูกใช้เพื่อ ละเมิดความเป็นส่วนตัว กำหนดเป้าหมายบุคคล (มักมีอคติต่อต้านผู้หญิง) และเผยแพร่ภาพปลอมที่ทำลายชื่อเสียงโดยแทบไม่มีต้นทุนต่อผู้กระทำผิด
-
การฉ้อโกงและการแอบอ้างตัวตน: ดีพเฟคกลายเป็นอาวุธใหม่ที่อันตรายสำหรับอาชญากรไซเบอร์ เสียงโคลน AI และแม้แต่ดีพเฟควิดีโอสดถูกใช้แอบอ้างบุคคลที่น่าเชื่อถือเพื่อผลประโยชน์ทางการเงิน FBI เตือนว่าอาชญากรกำลังใช้ การโคลนเสียง/วิดีโอ AI เพื่อแอบอ้างเป็นสมาชิกครอบครัว เพื่อนร่วมงาน หรือผู้บริหาร หลอกลวงเหยื่อให้โอนเงินหรือเปิดเผยข้อมูลสำคัญ
การฉ้อโกงเหล่านี้ซึ่งเป็นรูปแบบใหม่ของการแอบอ้างตัวตน ได้ก่อให้เกิดความเสียหายอย่างมาก ในกรณีจริงหนึ่งครั้ง โจรใช้ AI เลียนเสียง CEO และโน้มน้าวพนักงานให้โอนเงิน 220,000 ยูโร (ประมาณ 240,000 ดอลลาร์) อีกเหตุการณ์หนึ่ง อาชญากรใช้ดีพเฟควิดีโอของ CFO บริษัทในสาย Zoom เพื่ออนุมัติการโอนเงิน 25 ล้านดอลลาร์ไปยังบัญชีปลอม
การโจมตี วิศวกรรมสังคมที่ขับเคลื่อนด้วยดีพเฟค กำลังเพิ่มขึ้นอย่างรวดเร็ว – รายงานแสดงให้เห็นการเพิ่มขึ้นอย่างมากของการฉ้อโกงดีพเฟคทั่วโลกในช่วงสองสามปีที่ผ่านมา การผสมผสานระหว่างเสียง/วิดีโอปลอมที่น่าเชื่อถือสูงและความรวดเร็วของการสื่อสารดิจิทัลทำให้เหยื่อตกใจ ธุรกิจโดยเฉพาะเสี่ยงจากการฉ้อโกงแบบ “CEO scam” หรือคำสั่งปลอมจากผู้บริหาร
หากพนักงานไม่ได้รับการฝึกให้สงสัยสื่อเสียงและวิดีโอ พวกเขาอาจปฏิบัติตามคำสั่งดีพเฟคที่ดูเหมือนถูกต้อง ผลลัพธ์อาจเป็นการขโมยเงิน ข้อมูลรั่วไหล หรือความเสียหายทางการเงินอื่นๆ ภัยคุกคามนี้ทำให้ผู้เชี่ยวชาญด้านความปลอดภัยเรียกร้องให้มีการตรวจสอบตัวตนที่เข้มงวดขึ้น (เช่น ใช้ช่องทางปลอดภัยยืนยันคำขอ) และเครื่องมือทางเทคนิคเพื่อตรวจสอบความถูกต้องของเสียงและวิดีโอในธุรกรรมที่สำคัญ
-
การเสื่อมถอยของความไว้วางใจและความท้าทายทางกฎหมาย: การมาถึงของดีพเฟคทำให้เส้นแบ่งระหว่างความจริงและเรื่องแต่งพร่ามัว เกิดความกังวลทางสังคมและจริยธรรมอย่างกว้างขวาง เมื่อเนื้อหาปลอมดูน่าเชื่อถือมากขึ้น ผู้คนอาจเริ่มสงสัยหลักฐานที่แท้จริง – สถานการณ์ที่อันตรายต่อความยุติธรรมและความไว้วางใจของสาธารณะ
ตัวอย่างเช่น วิดีโอจริงของการกระทำผิดอาจถูกผู้กระทำผิดปฏิเสธว่าเป็น “ดีพเฟค” ทำให้การทำข่าวและกระบวนการทางกฎหมายซับซ้อนขึ้น การเสื่อมถอยของความไว้วางใจใน สื่อดิจิทัล นี้ยากที่จะวัด แต่ส่งผลเสียอย่างมากในระยะยาว
ดีพเฟคยังสร้างปัญหาทางกฎหมายที่ซับซ้อน: ใครเป็นเจ้าของสิทธิ์ในภาพลักษณ์ที่สร้างโดย AI? กฎหมายหมิ่นประมาทหรือฟ้องร้องใช้กับวิดีโอปลอมที่ทำลายชื่อเสียงอย่างไร? ยังมีคำถามเรื่อง ความยินยอมและจริยธรรม – การใช้ใบหน้าหรือเสียงของใครบางคนในดีพเฟคโดยไม่ได้รับอนุญาตถือเป็นการละเมิดสิทธิ์ แม้ว่ากฎหมายจะยังตามไม่ทัน
บางเขตอำนาจศาลเริ่มกำหนดให้สื่อที่ถูกแก้ไขต้องติดป้ายชัดเจน โดยเฉพาะอย่างยิ่งหากใช้ในโฆษณาทางการเมืองหรือการเลือกตั้ง นอกจากนี้ แพลตฟอร์มโซเชียลมีเดียยังถูกกดดันให้ตรวจจับและลบดีพเฟคที่เป็นอันตราย (เช่นเดียวกับการจัดการข้อมูลเท็จหรือสื่อที่ถูกปรับแต่งรูปแบบอื่นๆ)
ในเชิงเทคนิค การตรวจจับดีพเฟคเป็น “การแข่งขันอาวุธ” นักวิจัยกำลังพัฒนาระบบตรวจจับ AI เพื่อค้นหาสัญญาณเล็กๆ ของความปลอม (เช่น ความผิดปกติของการไหลเวียนเลือดบนใบหน้าหรือรูปแบบการกระพริบตา) อย่างไรก็ตาม เมื่อการตรวจจับดีขึ้น วิธีการหลบหลีกดีพเฟคก็พัฒนาตามไปด้วย – นำไปสู่การต่อสู้แบบแมวไล่หนูอย่างต่อเนื่อง
ความท้าทายทั้งหมดนี้ชัดเจนว่าสังคมต้องหาวิธี ตรวจสอบความถูกต้องของสื่ออย่างแท้จริง ในยุค AI และต้องรับผิดชอบผู้สร้างดีพเฟคที่ใช้ในทางที่ผิด
การนำทางยุคดีพเฟค: การสร้างสมดุล
AI ดีพเฟคเป็นปัญหาคลาสสิกของความก้าวหน้าทางเทคโนโลยี: มีสัญญาณที่ยิ่งใหญ่ผสมผสานกับอันตรายอย่างมาก ด้านหนึ่ง เรามีการใช้งานสร้างสรรค์และเป็นประโยชน์ที่ไม่เคยมีมาก่อน – ตั้งแต่การรักษาเสียงและแปลภาษาไปจนถึงการจินตนาการรูปแบบใหม่ของการเล่าเรื่องและการปกป้องความเป็นส่วนตัว
ในขณะเดียวกัน การใช้งานในทางที่ผิดของดีพเฟคคุกคามความเป็นส่วนตัว ความปลอดภัย และความไว้วางใจของสาธารณะ ก้าวต่อไปจึงสำคัญที่จะ เพิ่มประโยชน์สูงสุดและลดความเสียหายให้น้อยที่สุด
ความพยายามกำลังดำเนินไปในหลายด้าน บริษัทเทคโนโลยีและนักวิจัยลงทุนในเครื่องมือตรวจจับและกรอบการรับรองความถูกต้อง (เช่น ลายน้ำดิจิทัลหรือมาตรฐานการตรวจสอบเนื้อหา) เพื่อช่วยให้ผู้คนแยกแยะสื่อจริงจากปลอม ผู้กำหนดนโยบายทั่วโลกก็กำลังพิจารณากฎหมายเพื่อควบคุมการใช้งานดีพเฟคที่ละเมิดมากที่สุด เช่น การห้ามสื่อลามกปลอม ข้อมูลเท็จในการเลือกตั้ง หรือการบังคับเปิดเผยเมื่อสื่อถูกแก้ไขด้วย AI
อย่างไรก็ตาม กฎระเบียบเพียงอย่างเดียวเป็นเรื่องท้าทายเนื่องจากเทคโนโลยีพัฒนาอย่างรวดเร็วและข้ามเขตอำนาจศาลได้ง่าย การศึกษาและการสร้างความตระหนักจึงสำคัญไม่แพ้กัน: โปรแกรม ความรู้ด้านดิจิทัล สามารถสอนประชาชนให้ประเมินสื่ออย่างมีวิจารณญาณและระวังสัญญาณของดีพเฟค เช่นเดียวกับที่ผู้คนเรียนรู้ที่จะระวังอีเมลหลอกลวงหรือการฟิชชิ่ง
หากผู้ใช้รู้ว่า คลิปวิดีโอที่ดู “สมบูรณ์แบบ” หรือหวือหวาอาจถูกสร้างขึ้น พวกเขาจะพิจารณาก่อนตอบสนองหรือแชร์
>>> คลิกเพื่ออ่านเพิ่มเติม:
ปัญหาด้านปัญญาประดิษฐ์และความปลอดภัยของข้อมูล
สุดท้าย ปรากฏการณ์ดีพเฟคจะอยู่กับเราไปอีกนาน – “จินนี่ออกจากขวดแล้วและเราไม่สามารถใส่กลับเข้าไปได้” แทนที่จะตื่นตระหนกหรือแบนโดยสิ้นเชิง ผู้เชี่ยวชาญสนับสนุนแนวทางที่สมดุล: ส่งเสริมนวัตกรรมที่รับผิดชอบในสื่อสังเคราะห์ พร้อมกับพัฒนากฎเกณฑ์ที่เข้มงวดเพื่อป้องกันการละเมิด
นั่นหมายถึงการส่งเสริมการใช้งานเชิงบวก (ในความบันเทิง การศึกษา การเข้าถึง ฯลฯ) ภายใต้แนวทางจริยธรรม และในเวลาเดียวกันลงทุนในมาตรการความปลอดภัย กรอบกฎหมาย และบรรทัดฐานเพื่อลงโทษการใช้งานในทางที่ผิด โดยการ ร่วมมือกัน – นักเทคโนโลยี ผู้กำกับดูแล บริษัท และประชาชน – เราสามารถสร้างอนาคตที่ AI ดีพเฟคเป็น “เรื่องปกติ คุ้นเคย และน่าเชื่อถือ” ในอนาคตเช่นนี้ เราจะใช้ประโยชน์จากความสร้างสรรค์และความสะดวกสบายที่ดีพเฟคนำมา พร้อมกับมีความระมัดระวังและความยืดหยุ่นต่อรูปแบบใหม่ของการหลอกลวงที่พวกเขาสร้างขึ้น
โอกาสนั้นน่าตื่นเต้น และความเสี่ยงนั้นมีจริง – การตระหนักถึงทั้งสองเป็นก้าวแรกในการสร้างภูมิทัศน์สื่อที่ขับเคลื่อนด้วย AI ที่เป็นประโยชน์ต่อสังคมโดยรวม