هوش مصنوعی قدرت خلق «دیپفیک»ها را آزاد کرده است – رسانههایی بسیار واقعی اما ساختگی. از ویدئوهایی که بهطور بینقص چهره افراد را جابهجا میکنند تا صداهای کلونشدهای که از صدای واقعی غیرقابل تشخیص هستند، دیپفیکها نمایانگر عصری جدید هستند که دیدن (یا شنیدن) همیشه به معنای باور کردن نیست. این فناوری فرصتهای هیجانانگیزی برای نوآوری در صنایع مختلف فراهم میکند، اما در عین حال خطرات جدی نیز به همراه دارد.
در این مقاله، به بررسی اینکه دیپفیکهای هوش مصنوعی چیستند، چگونه کار میکنند و فرصتها و خطرات کلیدی که در دنیای امروز به همراه دارند، خواهیم پرداخت.
دیپفیک چیست؟
دیپفیک رسانهای ساختگی (ویدئو، صدا، تصویر یا حتی متن) است که توسط هوش مصنوعی تولید یا تغییر یافته تا بهطور قانعکنندهای محتوای واقعی را تقلید کند. خود این واژه از ترکیب «یادگیری عمیق» (الگوریتمهای پیشرفته هوش مصنوعی) و «ساختگی» آمده و از حدود سال ۲۰۱۷ در یک انجمن ردیت که کاربران ویدئوهای چهرهجابهجایی سلبریتیها را به اشتراک میگذاشتند، وارد زبان عام شد.
دیپفیکهای مدرن اغلب از تکنیکهایی مانند شبکههای مولد تخاصمی (GANs) استفاده میکنند – دو شبکه عصبی که در مقابل هم آموزش میبینند تا جعلهای هرچه واقعیتر تولید کنند. در دهه گذشته، پیشرفتهای هوش مصنوعی ساخت دیپفیکها را آسانتر و ارزانتر کرده است: اکنون هر کسی که به اینترنت دسترسی دارد، کلیدهای تولید رسانههای ساختگی را در اختیار دارد.
دیپفیکهای اولیه به دلیل استفادههای مخرب (مانند جایگزینی چهره سلبریتیها در ویدئوهای جعلی) شهرت منفی پیدا کردند. اما همه محتوای ساختگی تولید شده توسط هوش مصنوعی بد نیست. مانند بسیاری از فناوریها، دیپفیکها ابزاری هستند – تأثیر آنها (خوب یا بد) بستگی به نحوه استفاده دارد.
همانطور که مجمع جهانی اقتصاد اشاره میکند، در حالی که نمونههای منفی زیادی وجود دارد، «چنین محتوای ساختگی میتواند مزایایی نیز داشته باشد.» در بخشهای بعدی، به برخی از کاربردهای مثبت برجسته دیپفیک هوش مصنوعی میپردازیم و سپس خطرات و سوءاستفادههای جدی مرتبط با این فناوری را بررسی میکنیم.
فرصتها و کاربردهای مثبت دیپفیک هوش مصنوعی
با وجود شهرت بحثبرانگیز، دیپفیکها (که اغلب به صورت خنثیتر به آنها «رسانههای ساختگی» گفته میشود) چندین کاربرد مثبت در حوزههای خلاقانه، آموزشی و بشردوستانه ارائه میدهند:
-
سرگرمی و رسانه: فیلمسازان از تکنیکهای دیپفیک برای خلق جلوههای بصری خیرهکننده و حتی «جوانسازی» بازیگران روی پرده استفاده میکنند. به عنوان مثال، فیلم جدید ایندیانا جونز با آموزش هوش مصنوعی روی دههها فیلمهای گذشته هریسون فورد، نسخه دیجیتالی جوانتر او را بازسازی کرد. این فناوری میتواند شخصیتهای تاریخی یا بازیگران درگذشته را برای اجراهای جدید زنده کند و دوبله را با تطبیق دقیق حرکات لب بهبود بخشد.
در کل، دیپفیکها میتوانند محتوایی جذابتر و واقعیتر در فیلمها، تلویزیون و بازیها تولید کنند. -
آموزش و آموزش حرفهای: فناوری دیپفیک میتواند تجربههای یادگیری را جذابتر و تعاملیتر کند. مدرسین میتوانند شبیهسازیهای آموزشی یا بازسازیهای تاریخی با شخصیتهای زنده و واقعی از افراد مشهور ایجاد کنند که درسهای تاریخ یا علوم را زنده میکند.
سناریوهای نقشآفرینی واقعی که توسط هوش مصنوعی ساخته شدهاند (مثلاً شبیهسازی وضعیت اضطراری پزشکی یا کابین خلبان) میتوانند به آموزش حرفهایها در حوزههای بهداشت، هوانوردی، نظامی و غیره کمک کنند. این شبیهسازیها یادگیرندگان را به صورت ایمن و کنترلشده برای شرایط واقعی آماده میکنند. -
دسترسپذیری و ارتباطات: رسانههای تولید شده توسط هوش مصنوعی در حال شکستن موانع زبانی و ارتباطی هستند. مترجمان دیپفیک میتوانند یک ویدئو را به چند زبان دوبله کنند در حالی که صدای گوینده و حرکات او حفظ میشود – یک هنرمند به نام FKA Twigs حتی دیپفیکی از خود ساخته که به زبانهایی صحبت میکند که بلد نیست. این کاربردها میتوانند نجاتبخش باشند: خدمات اضطراری از ترجمه صوتی هوش مصنوعی برای تفسیر تماسهای ۱۱۱ استفاده کردهاند و زمان ترجمه را تا ۷۰٪ در شرایط بحرانی کاهش دادهاند.
به همین ترتیب، آواتارهای زبان اشاره مبتنی بر دیپفیک در حال توسعه هستند تا گفتار را برای ناشنوایان به زبان اشاره ترجمه کنند و ویدئوهای امضا را به گونهای واقعی تولید کنند که الگوریتمها در مطالعات اولیه نتوانستند آنها را از انسان واقعی تشخیص دهند. کاربرد تأثیرگذار دیگر، کلونسازی صدای شخصی برای کسانی است که توانایی صحبت کردن را از دست دادهاند – مثلاً یک نماینده کنگره آمریکا که به دلیل بیماری عصبی توان صحبت کردن نداشت، از کلون صدای هوش مصنوعی خود برای خطاب به قانونگذاران استفاده کرد و توانست «با لحن صدای خود صحبت کند» با وجود بیماریاش.
این کاربردها نشان میدهند که دیپفیکها چگونه دسترسپذیری را بهبود میبخشند و صدای افراد و ارتباطات آنها را حفظ میکنند. -
بهداشت و درمان و درمانهای روانی: در پزشکی، رسانههای ساختگی میتوانند به تحقیقات و رفاه بیماران کمک کنند. تصاویر پزشکی تولید شده توسط هوش مصنوعی میتوانند دادههای آموزشی الگوریتمهای تشخیصی را افزایش دهند – یک مطالعه نشان داد که سیستمی برای تشخیص تومور که عمدتاً با تصاویر MRI تولید شده توسط GAN آموزش دیده بود، به اندازه سیستمی که با اسکنهای واقعی آموزش دیده بود، عملکرد داشت. این بدان معناست که دیپفیکها میتوانند با ایجاد دادههای آموزشی فراوان بدون به خطر انداختن حریم خصوصی بیماران، هوش مصنوعی پزشکی را تقویت کنند.
از نظر درمانی، دیپفیکهای کنترلشده میتوانند به بیماران آرامش دهند. به عنوان مثال، مراقبان با ساخت ویدئوهایی که در آن عزیزان بیماران آلزایمری به شکل جوانتر خود (از دورهای که بیمار بهتر به یاد میآورد) ظاهر میشوند، سردرگمی و اضطراب بیماران را کاهش دادهاند. در کمپینهای بهداشت عمومی، تکنیکهای دیپفیک پیامهای قدرتمندی را ممکن ساختهاند: در یک کمپین ضد مالاریا، پیام ویدئویی ستاره فوتبال دیوید بکهام به کمک هوش مصنوعی به ۹ زبان مختلف تغییر داده شد و به کمپین آگاهیبخشی کمک کرد تا نیم میلیارد نفر در سراسر جهان را تحت پوشش قرار دهد. این نمونه نشان میدهد که رسانههای ساختگی چگونه میتوانند پیامهای مهم را به مخاطبان متنوع منتقل کنند. -
حریم خصوصی و ناشناسی: به طور پارادوکسیکال، همان قابلیت جابهجایی چهره که میتواند اخبار جعلی بسازد، میتواند حریم خصوصی را محافظت کند. فعالان، افشاگران یا افراد آسیبپذیر میتوانند با جایگزینی چهره خود با چهرهای واقعی تولید شده توسط هوش مصنوعی فیلمبرداری شوند و هویت خود را بدون استفاده از روشهای واضح مانند تار کردن مخفی کنند.
مثال برجسته مستند «خوش آمدید به چچن» (۲۰۲۰) است که از پوشش چهرههای تولید شده توسط هوش مصنوعی برای مخفی کردن هویت فعالان LGBT که از آزار و اذیت فرار میکردند استفاده کرد و در عین حال حالتها و احساسات چهره آنها را حفظ کرد. به این ترتیب، بینندگان میتوانستند با انسانیت موضوعات ارتباط برقرار کنند، حتی اگر چهرههای نشان داده شده واقعی نبودند.
پژوهشگران این ایده را به ابزارهایی برای حفظ حریم خصوصی روزمره گسترش دادهاند – مثلاً سیستمهای آزمایشی «ناشناسسازی» میتوانند به طور خودکار چهره افراد را در عکسهای به اشتراک گذاشته شده در شبکههای اجتماعی با چهرهای ساختگی مشابه جایگزین کنند اگر آنها رضایت به شناسایی نداشته باشند. همچنین فناوری «پوست صدا» میتواند صدای گوینده را به صورت زنده تغییر دهد (مانند بازیهای آنلاین یا جلسات مجازی) تا از تبعیض یا آزار جلوگیری کند و در عین حال احساس و نیت اصلی را منتقل نماید.
این کاربردها نشان میدهند که دیپفیکها میتوانند به افراد کمک کنند تا هویت دیجیتال و امنیت خود را کنترل کنند.
جابهجایی چهره در دیپفیک میتواند برای ناشناسسازی افراد استفاده شود. به عنوان مثال، فیلم «خوش آمدید به چچن» فعالان در معرض خطر را با جایگزینی چهره آنها با چهره بازیگران داوطلب از طریق هوش مصنوعی محافظت کرد، هویت آنها را پنهان کرد و در عین حال حالتهای طبیعی چهره را حفظ نمود. این نشان میدهد که رسانههای ساختگی چگونه میتوانند حریم خصوصی را در موقعیتهای حساس حفظ کنند.
خلاصه اینکه، دیپفیکها شمشیر دو لبهای هستند. از یک سو، «محتوای ساختگی ذاتاً مثبت یا منفی نیست – تأثیر آن بستگی به بازیگر و نیت او دارد». مثالهای بالا فرصت بهرهبرداری از فناوری دیپفیک برای خلاقیت، ارتباطات و خیر اجتماعی را نشان میدهند.
اما روی دیگر این ابزار قدرتمند، پتانسیل عظیم آن برای آسیبرسانی در صورت استفاده مخرب است. سالهای اخیر داستانهای هشداردهنده زیادی درباره فریب و سوءاستفادههای ناشی از دیپفیک ارائه کردهاند که در ادامه به آنها میپردازیم.
ریسکها و سوءاستفادههای دیپفیک
گسترش دیپفیکهای آسانساخت همچنین نگرانیها و تهدیدات جدی ایجاد کرده است. در واقع، یک نظرسنجی در سال ۲۰۲۳ نشان داد که ۶۰٪ از آمریکاییها درباره دیپفیکها «بسیار نگران» هستند – که این موضوع را به عنوان بزرگترین ترس مرتبط با هوش مصنوعی خود معرفی کردند. ریسکهای کلیدی مرتبط با فناوری دیپفیک عبارتند از:
-
اطلاعات نادرست و دستکاری سیاسی: دیپفیکها میتوانند به عنوان سلاحی برای انتشار اطلاعات نادرست در مقیاس وسیع استفاده شوند. ویدئوها یا صداهای جعلی از شخصیتهای عمومی میتوانند آنها را در حال گفتن یا انجام کارهایی نشان دهند که هرگز اتفاق نیفتاده است و مردم را فریب دهند. چنین دروغهایی میتوانند اعتماد به نهادها را تضعیف کنند، افکار عمومی را تحت تأثیر قرار دهند یا حتی آشوب ایجاد کنند.
برای مثال، در جنگ روسیه و اوکراین، ویدئوی دیپفیکی از رئیسجمهور ولودیمیر زلنسکی منتشر شد که ظاهراً در حال تسلیم شدن بود؛ اگرچه به سرعت به دلیل اشکالات آشکار (مانند سر بزرگ غیرطبیعی و صدای عجیب) رد شد، اما نشان داد که دشمنان چگونه میتوانند از جعلهای هوش مصنوعی در تبلیغات استفاده کنند.
به همین ترتیب، تصویر جعلی از یک «انفجار» نزدیک پنتاگون در سال ۲۰۲۳ به سرعت در فضای مجازی پخش شد و باعث افت کوتاهمدت بازار بورس شد تا اینکه مقامات اعلام کردند این تصویر توسط هوش مصنوعی ساخته شده است.با پیشرفت دیپفیکها، نگرانی این است که آنها بتوانند اخبار جعلی بسیار قانعکنندهای بسازند که توانایی مردم در تشخیص واقعیت از جعل را کاهش دهد. این نه تنها دروغ پخش میکند بلکه اثر «سود دروغگو» ایجاد میکند – مردم ممکن است حتی به ویدئوها یا شواهد واقعی شک کنند و ادعا کنند آنها دیپفیک هستند. نتیجه کلی، فرسایش حقیقت و کاهش بیشتر اعتماد به رسانهها و گفتوگوی دموکراتیک است.
-
پورنوگرافی غیرمجاز و آزار: یکی از اولین و گستردهترین استفادههای مخرب دیپفیک، ساخت محتوای صریح جعلی است. با استفاده از چند عکس، مهاجمان (اغلب از طریق انجمنها یا اپلیکیشنهای ناشناس) میتوانند ویدئوهای پورنوگرافی واقعی از افراد – معمولاً زنان – بدون رضایت آنها تولید کنند. این یک نوع شدید نقض حریم خصوصی و آزار جنسی است.
مطالعات نشان دادهاند که اکثر قریب به اتفاق ویدئوهای دیپفیک آنلاین (حدود ۹۰ تا ۹۵٪) پورنوگرافی غیرمجاز هستند که تقریباً همه قربانیان آن زنان هستند. چنین ویدئوهای جعلی میتوانند در سطح شخصی ویرانگر باشند و باعث تحقیر، آسیب روانی، لطمه به شهرت و حتی تهدید به اخاذی شوند. بازیگران، خبرنگاران و حتی افراد عادی مشهور شدهاند که چهرهشان روی محتوای بزرگسالان چسبانده شده است.
نیروهای انتظامی و قانونگذاران به طور فزایندهای نگران این روند هستند؛ برای مثال، در ایالات متحده، چندین ایالت و دولت فدرال قوانینی برای جرمانگاری پورنوگرافی دیپفیک و ارائه راهکارهای قانونی به قربانیان پیشنهاد یا تصویب کردهاند. آسیبهای پورنوگرافی دیپفیک نشان میدهد که این فناوری چگونه میتواند برای نقض حریم خصوصی، هدف قرار دادن افراد (اغلب با تعصب ضد زن) و انتشار تصاویر جعلی افتراآمیز با هزینه کم برای مرتکب استفاده شود.
-
کلاهبرداری و جعل هویت: دیپفیکها به عنوان سلاحی خطرناک برای مجرمان سایبری ظاهر شدهاند. کلونهای صوتی تولید شده توسط هوش مصنوعی و حتی دیپفیکهای ویدئویی زنده برای جعل هویت افراد مورد اعتماد به منظور کسب سود کلاهبردارانه استفاده میشوند. افبیآی هشدار داده است که مجرمان از کلونسازی صوتی/تصویری هوش مصنوعی برای جا زدن خود به عنوان اعضای خانواده، همکاران یا مدیران استفاده میکنند – و قربانیان را فریب میدهند تا پول بفرستند یا اطلاعات حساس را فاش کنند.
این کلاهبرداریها که اغلب نسخهای پیشرفته از کلاهبرداری «جعل هویت» هستند، تاکنون خسارات قابل توجهی به بار آوردهاند. در یک مورد واقعی، دزدان با تقلید صدای مدیرعامل با هوش مصنوعی موفق شدند یک کارمند را متقاعد کنند که مبلغ ۲۲۰,۰۰۰ یورو (حدود ۲۴۰,۰۰۰ دلار) را به حساب آنها واریز کند. در مورد دیگری، مجرمان حضور ویدئویی دیپفیک مدیر مالی یک شرکت را در تماس زوم جعل کردند تا انتقال ۲۵ میلیون دلار به حسابهای جعلی را تأیید کنند.
این حملات مهندسی اجتماعی مبتنی بر دیپفیک در حال افزایش است – گزارشها نشاندهنده جهش عظیم کلاهبرداریهای دیپفیک در سطح جهان در چند سال اخیر هستند. ترکیب صداها و ویدئوهای جعلی بسیار باورپذیر و سرعت ارتباطات دیجیتال میتواند قربانیان را غافلگیر کند. کسبوکارها به ویژه در معرض خطر «کلاهبرداری مدیرعامل» یا دستورهای جعلی از سوی مدیران قرار دارند.
اگر کارکنان آموزش ندیده باشند که نسبت به رسانههای صوتی و تصویری شکاک باشند، ممکن است دستورالعملهای دیپفیکی را که به نظر قانونی میرسد، اجرا کنند. نتیجه میتواند سرقت وجوه، نفوذ به دادهها یا خسارات پرهزینه دیگر باشد. این تهدید باعث شده است که کارشناسان امنیتی به تقویت روشهای تأیید هویت (مثلاً استفاده از کانالهای امن برای تأیید درخواستها) و ابزارهای فنی تشخیص اصالت صوت و تصویر در معاملات حساس توصیه کنند.
-
کاهش اعتماد و چالشهای حقوقی: ظهور دیپفیکها مرز بین واقعیت و تخیل را مبهم میکند و نگرانیهای گسترده اجتماعی و اخلاقی ایجاد میکند. با واقعیتر شدن محتوای جعلی، مردم ممکن است به شواهد واقعی شک کنند – سناریویی خطرناک برای عدالت و اعتماد عمومی.
برای مثال، یک ویدئوی واقعی از تخلف میتواند توسط متخلف به عنوان «دیپفیک» رد شود و روند روزنامهنگاری و دادرسی را پیچیده کند. این کاهش اعتماد به رسانههای دیجیتال سخت قابل اندازهگیری است اما در طول زمان بسیار آسیبزننده است.
دیپفیکها همچنین مسائل حقوقی پیچیدهای ایجاد میکنند: مالکیت حقوق تصویر تولید شده توسط هوش مصنوعی متعلق به کیست؟ قوانین افترا یا تهمت چگونه بر ویدئوی جعلی که به شهرت کسی آسیب میزند، اعمال میشود؟ همچنین سوالات موافقت و اخلاقی مطرح است – استفاده از چهره یا صدای کسی در دیپفیک بدون اجازه معمولاً نقض حقوق آنها محسوب میشود، اما قوانین هنوز با این واقعیت هماهنگ نشدهاند.
برخی حوزههای قضایی شروع به الزام برچسبگذاری واضح رسانههای تغییر یافته کردهاند، به ویژه اگر در تبلیغات سیاسی یا انتخابات استفاده شوند. علاوه بر این، پلتفرمهایی مانند شبکههای اجتماعی تحت فشار هستند تا دیپفیکهای مضر را شناسایی و حذف کنند (مشابه نحوه برخورد با سایر اشکال اطلاعات نادرست یا رسانههای دستکاری شده).
از نظر فناوری، تشخیص دیپفیکها یک «مسابقه تسلیحاتی» است. پژوهشگران سیستمهای تشخیص هوش مصنوعی میسازند تا نشانههای ظریف جعل (مانند ناهنجاریهای جریان خون صورت یا الگوهای پلک زدن) را شناسایی کنند. اما با بهبود تشخیص، روشهای دیپفیک برای فرار از آن نیز پیشرفتهتر میشوند – که منجر به یک بازی موش و گربه دائمی میشود.
تمام این چالشها نشان میدهد که جامعه باید با نحوه تأیید اصالت رسانهها در عصر هوش مصنوعی کنار بیاید و سازندگان دیپفیک را برای سوءاستفاده مسئول بداند.
هدایت دوران دیپفیک: یافتن تعادل
دیپفیکهای هوش مصنوعی معمای کلاسیک پیشرفت فناوری را نشان میدهند: وعدههای عظیم در کنار خطرات جدی. از یک سو، کاربردهای بیسابقه خلاقانه و مفید – از حفظ صداها و ترجمه زبانها تا تصور شکلهای جدید روایت و حفاظت از حریم خصوصی.
از سوی دیگر، استفادههای مخرب دیپفیکها تهدیدی برای حریم خصوصی، امنیت و اعتماد عمومی هستند. در ادامه، ضروری است که مزایا را به حداکثر و آسیبها را به حداقل برسانیم.
تلاشهایی در چند جبهه در جریان است. شرکتهای فناوری و پژوهشگران در حال سرمایهگذاری روی ابزارهای تشخیص و چارچوبهای اصالت (مانند نشانهای دیجیتال یا استانداردهای تأیید محتوا) هستند تا به مردم کمک کنند رسانههای واقعی را از جعلی تشخیص دهند. قانونگذاران در سراسر جهان نیز در حال بررسی قوانین برای محدود کردن سوءاستفادههای شدید دیپفیک هستند – مثلاً ممنوعیت پورنوگرافی جعلی، اطلاعات نادرست انتخاباتی یا الزام به افشای تغییرات هوش مصنوعی در رسانهها.
با این حال، تنها مقررات کافی نیستند زیرا فناوری به سرعت پیشرفت میکند و به راحتی از مرزهای قضایی عبور میکند. آموزش و آگاهی نیز به همان اندازه مهم است: برنامههای سواد دیجیتال میتوانند به عموم مردم آموزش دهند که چگونه رسانهها را به طور انتقادی ارزیابی کنند و به علائم دیپفیک توجه کنند، درست مانند یادگیری تشخیص کلاهبرداریهای ایمیلی یا فیشینگ.
اگر کاربران بدانند که فیلمهای «کامل» یا هیجانانگیز ممکن است ساختگی باشند، میتوانند قبل از واکنش یا اشتراکگذاری این موضوع را در نظر بگیرند.
>>> کلیک کنید برای اطلاعات بیشتر:
مسائل امنیت دادهها و هوش مصنوعی
در نهایت، پدیده دیپفیک اینجا باقی میماند – «جن از بطری بیرون آمده و نمیتوان آن را دوباره درون بطری گذاشت». به جای وحشت یا ممنوعیتهای کامل، کارشناسان رویکردی متعادل را توصیه میکنند: تشویق نوآوری مسئولانه در رسانههای ساختگی در حالی که محدودیتهای قوی برای جلوگیری از سوءاستفاده ایجاد میشود.
این به معنای حمایت از کاربردهای مثبت (در سرگرمی، آموزش، دسترسپذیری و غیره) تحت دستورالعملهای اخلاقی و همزمان سرمایهگذاری در اقدامات امنیتی، چارچوبهای قانونی و هنجارها برای مجازات استفادههای مخرب است. با همکاری – فناوران، قانونگذاران، شرکتها و شهروندان – میتوان آیندهای ساخت که در آن دیپفیک هوش مصنوعی «رایج، آشنا و قابل اعتماد» باشد. در چنین آیندهای، خلاقیت و سهولت استفاده از دیپفیکها را به کار میگیریم و در عین حال نسبت به اشکال جدید فریب هوشیار و مقاوم خواهیم بود.
فرصتها هیجانانگیز و ریسکها واقعی هستند – شناخت هر دو گام اول در شکلدهی به چشمانداز رسانهای مبتنی بر هوش مصنوعی است که به نفع کل جامعه باشد.