لقد أتاح الذكاء الاصطناعي القدرة على إنشاء “التزييفات العميقة” – وهي وسائط مزيفة لكنها واقعية للغاية. من مقاطع الفيديو التي تستبدل وجه شخص ما بسلاسة إلى الأصوات المستنسخة التي تبدو غير قابلة للتمييز عن الصوت الحقيقي، تمثل التزييفات العميقة عصرًا جديدًا حيث لا يكون الرؤية (أو السمع) دائمًا دليلًا على الحقيقة. تحمل هذه التقنية فرصًا مثيرة للابتكار عبر الصناعات، لكنها تطرح أيضًا مخاطر جدية.
في هذا المقال، سنستعرض ما هي التزييفات العميقة بالذكاء الاصطناعي، وكيف تعمل، والفرص والمخاطر الرئيسية التي تجلبها في عالم اليوم.
ما هو التزييف العميق؟
التزييف العميق هو قطعة من الوسائط الاصطناعية (فيديو، صوت، صور أو حتى نص) يتم إنشاؤها أو تعديلها بواسطة الذكاء الاصطناعي لتقليد المحتوى الحقيقي بشكل مقنع. يأتي المصطلح نفسه من “التعلم العميق” (خوارزميات الذكاء الاصطناعي المتقدمة) و“التزييف”، ودخل الاستخدام الشائع حوالي عام 2017 في منتدى Reddit حيث شارك المستخدمون مقاطع فيديو لتبديل وجوه المشاهير.
غالبًا ما تستخدم التزييفات العميقة الحديثة تقنيات مثل الشبكات التوليدية التنافسية (GANs) – وهما شبكتان عصبيتان تتدربان ضد بعضهما البعض لإنتاج تزييفات أكثر واقعية باستمرار. خلال العقد الماضي، جعلت التطورات في الذكاء الاصطناعي إنشاء التزييفات العميقة أسهل وأرخص: أصبح بإمكان أي شخص متصل بالإنترنت الوصول إلى أدوات إنشاء الوسائط الاصطناعية.
اكتسبت التزييفات العميقة المبكرة سمعة سيئة بسبب الاستخدامات الخبيثة (مثل إدخال وجوه المشاهير في مقاطع فيديو مزيفة)، مما أعطى التقنية سمعة سلبية. ومع ذلك، ليس كل محتوى اصطناعي مولد بالذكاء الاصطناعي ضارًا. مثل العديد من التقنيات، التزييفات العميقة هي أداة – وتأثيرها (إيجابي أو سلبي) يعتمد على كيفية استخدامها.
كما يشير المنتدى الاقتصادي العالمي، رغم وجود العديد من الأمثلة السلبية، “يمكن أن يجلب هذا المحتوى الاصطناعي أيضًا فوائد.” في الأقسام التالية، نستعرض بعض التطبيقات الإيجابية البارزة للتزييف العميق بالذكاء الاصطناعي، تليها المخاطر والانتهاكات الخطيرة المرتبطة بهذه التقنية.
الفرص والتطبيقات الإيجابية للتزييف العميق بالذكاء الاصطناعي
على الرغم من سمعتها المثيرة للجدل، تقدم التزييفات العميقة (التي يُشار إليها غالبًا بشكل أكثر حيادية باسم “الوسائط الاصطناعية”) عدة تطبيقات إيجابية في مجالات الإبداع والتعليم والعمل الإنساني:
-
الترفيه والإعلام: يستخدم صناع الأفلام تقنيات التزييف العميق لإنشاء مؤثرات بصرية مذهلة وحتى “تصغير عمر” الممثلين على الشاشة. على سبيل المثال، أعاد فيلم إنديانا جونز الأخير إنشاء نسخة رقمية لشاب هاريسون فورد من خلال تدريب الذكاء الاصطناعي على لقطات له عبر عقود. يمكن لهذه التقنية إحياء شخصيات تاريخية أو ممثلين متوفين لأداء أدوار جديدة وتحسين الدبلجة من خلال مطابقة حركات الشفاه بدقة.
بشكل عام، يمكن للتزييفات العميقة إنتاج محتوى أكثر غمرًا وواقعية في الأفلام والتلفزيون والألعاب. -
التعليم والتدريب: يمكن لتقنية التزييف العميق جعل تجارب التعلم أكثر تفاعلية وجاذبية. يمكن للمدربين إنشاء محاكاة تعليمية أو إعادة تمثيل تاريخي لشخصيات حية من مشاهير التاريخ، مما يجعل دروس التاريخ أو العلوم تنبض بالحياة.
يمكن للسيناريوهات الواقعية التي ينشئها الذكاء الاصطناعي (مثل محاكاة حالة طبية طارئة أو سيناريو قمرة قيادة طائرة) أن تساعد في تدريب المهنيين في مجالات الرعاية الصحية والطيران والجيش وغيرها. هذه المحاكاة التي يولدها الذكاء الاصطناعي تجهز المتعلمين لمواقف العالم الحقيقي بطريقة آمنة ومضبوطة. -
الوصول والتواصل: تكسر الوسائط التي يولدها الذكاء الاصطناعي حواجز اللغة والتواصل. يمكن لـمترجمي التزييف العميق دبلجة الفيديو إلى عدة لغات مع الحفاظ على صوت المتحدث وأساليبه – حتى أن فنانة مثل FKA Twigs أنشأت نسخة تزييف عميق لنفسها تتحدث بلغات لا تعرفها. هذا يحمل إمكانيات إنقاذ حياة: استخدمت خدمات الطوارئ ترجمة صوتية بالذكاء الاصطناعي لتفسير مكالمات 911 بسرعة أكبر، مما قلل وقت الترجمة بنسبة تصل إلى 70% في الحالات الحرجة.
وبالمثل، يتم تطوير شخصيات لغة الإشارة المدفوعة بالتزييف العميق لترجمة الكلام إلى لغة الإشارة للجماهير الصم، مما ينتج فيديوهات توقيع واقعية جدًا لدرجة أن الخوارزميات لم تستطع التمييز بينها وبين المترجمين الحقيقيين في دراسات مبكرة. استخدام مؤثر آخر هو استنساخ الصوت الشخصي لأولئك الذين يفقدون القدرة على الكلام – على سبيل المثال، استخدمت عضوة في الكونغرس الأمريكي تعاني من مرض تنكسي عصبي نسخة صوتية مولدة بالذكاء الاصطناعي لتخاطب المشرعين بعد أن فقدت القدرة على الكلام، مما سمح لها “بالحديث بنبرة صوتها” رغم مرضها.
تُظهر هذه التطبيقات كيف تحسن التزييفات العميقة الوصول وتحافظ على أصوات الناس وتواصلهم. -
الرعاية الصحية والعلاج: في الطب، يمكن للوسائط الاصطناعية أن تدعم البحث ورفاهية المرضى. يمكن للصور الطبية التي يولدها الذكاء الاصطناعي أن تعزز بيانات التدريب لخوارزميات التشخيص – حيث وجدت دراسة أن نظام ذكاء اصطناعي للكشف عن الأورام مدرب بشكل رئيسي على صور رنين مغناطيسي مولدة بواسطة GAN قدم أداءً مماثلًا لنظام مدرب على صور حقيقية. هذا يعني أن التزييفات العميقة يمكن أن تعزز الذكاء الاصطناعي الطبي من خلال توفير بيانات تدريب وفيرة دون المساس بخصوصية المرضى.
علاجيًا، يمكن للتزييفات العميقة المُتحكم بها أن تريح المرضى. على سبيل المثال، جرب مقدمو الرعاية إنشاء فيديوهات يظهر فيها أحد أحبّاء مريض الزهايمر في شبابه (من الفترة التي يتذكرها المريض جيدًا)، مما يقلل من ارتباك وقلق المريض. في حملات الصحة العامة، مكنت تقنيات التزييف العميق من رسائل قوية: في حملة مضادة للملاريا، تم تعديل رسالة فيديو لنجم كرة القدم ديفيد بيكهام بالذكاء الاصطناعي بحيث “يتحدث” بتسع لغات مختلفة، مما ساعد الحملة على الوصول إلى نصف مليار شخص حول العالم. هذا يبرز كيف يمكن للوسائط الاصطناعية تعزيز الرسائل المهمة لجماهير متنوعة. -
الخصوصية والهوية المجهولة: من المفارقات أن نفس القدرة على تبديل الوجوه التي يمكن أن تخلق أخبارًا مزيفة يمكنها أيضًا حماية الخصوصية. يمكن للناشطين والمبلغين عن المخالفات أو الأفراد المعرضين للخطر أن يُصوروا مع استبدال وجوههم بوجه مولد بالذكاء الاصطناعي، مما يخفي هويتهم دون اللجوء إلى التمويه الواضح.
مثال بارز هو الفيلم الوثائقي “مرحبًا بكم في الشيشان” (2020)، الذي استخدم تراكبات وجوه مولدة بالذكاء الاصطناعي لإخفاء هويات نشطاء مجتمع الميم الذين يفرون من الاضطهاد مع الحفاظ على تعبيرات وجوههم ومشاعرهم. بهذه الطريقة، تمكن المشاهدون من التواصل مع إنسانية الأشخاص، رغم أن الوجوه المعروضة لم تكن حقيقية.
يقوم الباحثون بتوسيع هذه الفكرة إلى أدوات للخصوصية اليومية – على سبيل المثال، أنظمة “إخفاء الهوية” تجريبية يمكنها استبدال وجه الشخص في الصور المنشورة على وسائل التواصل الاجتماعي بوجه اصطناعي مشابه إذا لم يوافق على التعريف به. وبالمثل، يمكن لتقنية “جلد الصوت” تغيير صوت المتحدث في الوقت الحقيقي (كما في الألعاب الإلكترونية أو الاجتماعات الافتراضية) لمنع التحيز أو التحرش مع الحفاظ على العاطفة والنية الأصلية.
تشير هذه التطبيقات إلى أن التزييفات العميقة قد تساعد الأفراد في التحكم بهويتهم الرقمية وسلامتهم.
يمكن استخدام تبديل الوجوه بالتزييف العميق لـإخفاء هوية الأفراد. على سبيل المثال، حمى فيلم Welcome to Chechnya النشطاء المعرضين للخطر من خلال تراكب وجوههم بوجوه ممثلين متطوعين عبر الذكاء الاصطناعي، مخفيًا هوياتهم مع الحفاظ على التعبيرات الطبيعية. هذا يوضح كيف يمكن للوسائط الاصطناعية حماية الخصوصية في المواقف الحساسة.
باختصار، التزييفات العميقة سلاح ذو حدين. من جهة، “المحتوى الاصطناعي ليس إيجابيًا أو سلبيًا بطبيعته – تأثيره يعتمد على الفاعل ونواياه”. تبرز الأمثلة السابقة الفرصة لاستغلال تقنية التزييف العميق للإبداع والتواصل والخير الاجتماعي.
ومع ذلك، الجانب الآخر من هذه الأداة القوية هو إمكاناتها الهائلة لإلحاق الضرر عند استخدامها بشكل خبيث. قدمت السنوات الأخيرة العديد من القصص التحذيرية حول الخداع والانتهاكات المدفوعة بالتزييف العميق، والتي سنستعرضها لاحقًا.
المخاطر وسوء استخدام التزييفات العميقة
أدى انتشار التزييفات العميقة السهلة الصنع إلى إثارة مخاوف وتهديدات جدية. في الواقع، أظهر استطلاع عام 2023 أن 60% من الأمريكيين كانوا “قلقين جدًا” بشأن التزييفات العميقة – مما يجعلها الخوف الأول المرتبط بالذكاء الاصطناعي لديهم. تشمل المخاطر الرئيسية المرتبطة بتقنية التزييف العميق:
-
المعلومات المضللة والتلاعب السياسي: يمكن استخدام التزييفات العميقة كسلاح لنشر المعلومات المضللة على نطاق واسع. يمكن لمقاطع الفيديو أو الصوت المزيفة لشخصيات عامة أن تصورهم وهم يقولون أو يفعلون أشياء لم تحدث أبدًا، مما يخدع الجمهور. يمكن لهذه الأكاذيب تقويض الثقة في المؤسسات، وتوجيه الرأي العام، أو حتى إثارة الاضطرابات.
على سبيل المثال، خلال حرب روسيا في أوكرانيا، انتشر فيديو تزييف عميق للرئيس فولوديمير زيلينسكي يبدو فيه وكأنه يستسلم؛ رغم أنه تم دحضه بسرعة بسبب عيوب واضحة (مثل رأس كبير الحجم وصوت غريب)، إلا أنه أظهر إمكانية استخدام الأعداء للتزييفات العميقة في الدعاية.
وبالمثل، انتشر في 2023 صورة مزيفة لـ“انفجار” قرب البنتاغون وأدى إلى هبوط مؤقت في سوق الأسهم قبل أن توضح السلطات أنها مولدة بالذكاء الاصطناعي.مع تحسن التزييفات العميقة، يزداد القلق من إمكانية استخدامها لإنشاء أخبار مزيفة مقنعة للغاية، مما يضعف قدرة الجمهور على التمييز بين الواقع والتزييف. لا ينتشر هذا فقط الأكاذيب، بل يخلق أيضًا تأثيرًا مخيفًا يسمى “عائد الكاذب” – حيث قد يبدأ الناس في عدم الثقة حتى في الفيديوهات أو الأدلة الحقيقية، مدعين أنها تزييفات عميقة. النتيجة العامة هي تآكل الحقيقة وفقدان أكبر للثقة في الإعلام والخطاب الديمقراطي.
-
الصور الإباحية غير الموافقة والتحرش: كان أحد أقدم وأكثر الاستخدامات الخبيثة انتشارًا للتزييفات العميقة هو إنشاء محتوى إباحي مزيف. باستخدام بعض الصور فقط، يمكن للمهاجمين (غالبًا عبر منتديات أو تطبيقات مجهولة) إنشاء مقاطع فيديو إباحية واقعية لأشخاص – عادة ما تستهدف النساء – دون موافقتهن. هذا شكل خطير من انتهاك الخصوصية والتحرش الجنسي.
وجدت الدراسات أن الغالبية العظمى من مقاطع الفيديو التزييف العميق على الإنترنت (حوالي 90-95%) هي إباحية غير موافق عليها، وتضم تقريبًا جميعها نساء كضحايا. يمكن أن تكون هذه الفيديوهات المزيفة مدمرة على المستوى الشخصي، مسببة الإذلال، والصدمات، وتلف السمعة، وحتى تهديدات الابتزاز. وجدت ممثلات وصحفيات بارزات، وحتى أفراد عاديون، وجوههن ملصقة على محتوى للكبار.
تزداد مخاوف أجهزة إنفاذ القانون وصانعي السياسات من هذا الاتجاه؛ على سبيل المثال، في الولايات المتحدة، اقترحت أو أصدرت عدة ولايات والحكومة الفيدرالية قوانين لتجريم الإباحية بالتزييف العميق ومنح الضحايا سبل قانونية. يبرز ضرر الإباحية بالتزييف العميق كيف يمكن استغلال هذه التقنية لانتهاك الخصوصية، واستهداف الأفراد (غالبًا مع تحيز ضد النساء)، ونشر صور مزيفة تشهيرية بتكلفة منخفضة للمعتدي.
-
الاحتيال وانتحال الهوية: برزت التزييفات العميقة كسلاح خطير جديد للمجرمين الإلكترونيين. تُستخدم نسخ الصوت والفيديو المولدة بالذكاء الاصطناعي لانتحال شخصية أشخاص موثوقين لتحقيق مكاسب احتيالية. تحذر الـ FBI من أن المجرمين يستغلون تقنية استنساخ الصوت والفيديو بالذكاء الاصطناعي لانتحال شخصية أفراد العائلة أو الزملاء أو المسؤولين التنفيذيين – مما يخدع الضحايا لإرسال أموال أو الكشف عن معلومات حساسة.
هذه الاحتيالات، التي غالبًا ما تكون نسخة متطورة من احتيال “انتحال الشخصية”، تسببت بالفعل في خسائر كبيرة. في حالة حقيقية، استخدم لصوص الذكاء الاصطناعي لتقليد صوت الرئيس التنفيذي وأقنعوا موظفًا بتحويل 220,000 يورو (حوالي 240,000 دولار) لهم. وفي حادث آخر، انتحل مجرمون حضور المدير المالي لشركة في مكالمة Zoom لتفويض تحويل 25 مليون دولار إلى حسابات احتيالية.
تتزايد هجمات الهندسة الاجتماعية المدفوعة بالتزييف العميق – حيث تظهر التقارير ارتفاعًا هائلًا في الاحتيال باستخدام التزييف العميق عالميًا خلال السنوات القليلة الماضية. يجمع هذا بين أصوات وفيديوهات مزيفة مقنعة للغاية وسرعة التواصل الرقمي، مما يفاجئ الضحايا. الشركات معرضة بشكل خاص لخطر “احتيالات الرئيس التنفيذي” أو أوامر مزيفة من مسؤولين تنفيذيين مزيفين.
إذا لم يتلق الموظفون تدريبًا على الشك في الوسائط السمعية والبصرية، فقد يتبعون تعليمات تزييف عميق تبدو شرعية. يمكن أن تؤدي النتيجة إلى سرقة أموال، أو اختراق بيانات، أو أضرار مكلفة أخرى. دفعت هذه التهديدات الخبراء الأمنيين إلى الدعوة إلى ممارسات تحقق هوية أقوى (مثل استخدام قنوات آمنة لتأكيد الطلبات) وأدوات تقنية للكشف عن صحة الصوت والفيديو في المعاملات الحساسة.
-
تآكل الثقة والتحديات القانونية: يطمس ظهور التزييفات العميقة الخط الفاصل بين الواقع والخيال، مما يثير مخاوف اجتماعية وأخلاقية واسعة النطاق. مع ازدياد إقناع المحتوى المزيف، قد يبدأ الناس في الشك في الأدلة الحقيقية – وهو سيناريو خطير للعدالة والثقة العامة.
على سبيل المثال، قد يُرفض فيديو حقيقي عن سوء تصرف باعتباره “تزييفًا عميقًا” من قبل الجاني، مما يعقد الصحافة والإجراءات القانونية. من الصعب قياس هذا التآكل في الثقة بـ الإعلام الرقمي، لكنه مضر جدًا على المدى الطويل.
تطرح التزييفات العميقة أيضًا قضايا قانونية معقدة: من يملك حقوق صورة مولدة بالذكاء الاصطناعي لشخص؟ كيف تنطبق قوانين التشهير على فيديو مزيف يضر بسمعة شخص؟ هناك أيضًا أسئلة حول الموافقة والأخلاقيات – استخدام وجه أو صوت شخص في تزييف عميق بدون إذن يُعتبر عمومًا انتهاكًا لحقوقه، لكن القوانين لا تزال تتطور لمواكبة هذا الواقع.
بدأت بعض السلطات القضائية في طلب وسم الوسائط المعدلة بوضوح، خاصة إذا استُخدمت في الإعلانات السياسية أو الانتخابات. بالإضافة إلى ذلك، تواجه منصات التواصل الاجتماعي ضغوطًا للكشف عن التزييفات العميقة الضارة وإزالتها (مماثل لكيفية تعاملها مع أشكال أخرى من المعلومات المضللة أو الوسائط المُعدلة).
تقنيًا، يعد الكشف عن التزييفات العميقة “سباق تسلح”. يبني الباحثون أنظمة ذكاء اصطناعي للكشف عن آثار التزييف الدقيقة (مثل الشذوذ في تدفق الدم الوجهي أو نمط الرمش). ومع تحسن الكشف، تتحسن طرق التزييف العميق لتجنب الكشف – مما يؤدي إلى معركة مستمرة بين الطرفين.
توضح كل هذه التحديات أن المجتمع يجب أن يتعامل مع كيفية التحقق الحقيقي من الوسائط في عصر الذكاء الاصطناعي وكيفية محاسبة منشئي التزييف العميق على سوء الاستخدام.
التعامل مع عصر التزييف العميق: إيجاد التوازن
تمثل التزييفات العميقة بالذكاء الاصطناعي معضلة كلاسيكية للتقدم التكنولوجي: وعد هائل متشابك مع مخاطر. من جهة، لدينا استخدامات إبداعية ومفيدة غير مسبوقة – من حفظ الأصوات وترجمة اللغات إلى تصور أشكال جديدة من السرد وحماية الخصوصية.
ومن جهة أخرى، تهدد الاستخدامات الخبيثة للتزييفات العميقة الخصوصية والأمن والثقة العامة. من الضروري المضي قدمًا لتحقيق أقصى استفادة مع تقليل الأضرار.
تجري جهود على عدة جبهات. تستثمر شركات التكنولوجيا والباحثون في أدوات الكشف وأطر الأصالة (مثل العلامات المائية الرقمية أو معايير التحقق من المحتوى) لمساعدة الناس على التمييز بين الوسائط الحقيقية والمزيفة. كما يستكشف صانعو السياسات حول العالم تشريعات للحد من أكثر ممارسات التزييف العميق إساءة – مثل حظر الإباحية المزيفة، والمعلومات المضللة في الانتخابات، أو اشتراط الإفصاح عند تعديل الوسائط بالذكاء الاصطناعي.
ومع ذلك، فإن التنظيم وحده يمثل تحديًا نظرًا لتطور التقنية السريع وسهولة تجاوزها للحدود القضائية. التعليم والتوعية لا يقلان أهمية: يمكن لبرامج المحو الرقمي تعليم الجمهور كيفية تقييم الوسائط نقديًا والانتباه إلى علامات التزييف، تمامًا كما تعلم الناس التعرف على الاحتيالات عبر البريد الإلكتروني أو محاولات التصيد.
إذا كان المستخدمون يعلمون أن اللقطات “الكاملة” أو المثيرة قد تكون مزيفة، يمكنهم أخذ ذلك في الاعتبار قبل التفاعل أو المشاركة.
>>> انقر لمعرفة المزيد:
دور الذكاء الاصطناعي في العصر الرقمي
قضايا الذكاء الاصطناعي وأمن البيانات
في النهاية، ظاهرة التزييف العميق هنا لتبقى – “الجن في الزجاجة خرج ولا يمكن إعادته”. بدلاً من الذعر أو الحظر التام، يدعو الخبراء إلى نهج متوازن: تشجيع الابتكار المسؤول في الوسائط الاصطناعية مع تطوير ضوابط صارمة ضد الإساءة.
هذا يعني تعزيز التطبيقات الإيجابية (في الترفيه، والتعليم، والوصول، وغيرها) ضمن إرشادات أخلاقية، والاستثمار في الوقت نفسه في تدابير أمنية، وأطر قانونية، ومعايير لمعاقبة الاستخدامات الخبيثة. من خلال التعاون – بين التقنيين، والمنظمين، والشركات، والمواطنين – يمكننا بناء مستقبل يكون فيه التزييف العميق بالذكاء الاصطناعي “شائعًا، مألوفًا وموثوقًا”. في مثل هذا المستقبل، نستفيد من الإبداع والراحة التي تقدمها التزييفات العميقة، مع البقاء يقظين وقادرين على الصمود أمام أشكال الخداع الجديدة التي تمكّنها.
الفرص مثيرة، والمخاطر حقيقية – والاعتراف بكليهما هو الخطوة الأولى نحو تشكيل مشهد إعلامي مدفوع بالذكاء الاصطناعي يعود بالنفع على المجتمع ككل.