কৃত্রিম বুদ্ধিমত্তা “ডিপফেক” তৈরি করার ক্ষমতা উন্মুক্ত করেছে – অত্যন্ত বাস্তবসম্মত কিন্তু কৃত্রিম মিডিয়া। ভিডিওতে কারো মুখ নির্বিঘ্নে বদলানো থেকে শুরু করে এমন কণ্ঠস্বর ক্লোন করা যা আসল ব্যক্তির মতো শোনায়, ডিপফেক একটি নতুন যুগের প্রতিনিধিত্ব করে যেখানে দেখা (বা শোনা) সবসময় বিশ্বাসযোগ্য নয়। এই প্রযুক্তি শিল্প জুড়ে উদ্ভাবনের জন্য উত্তেজনাপূর্ণ সুযোগ নিয়ে আসে, তবে এটি গুরুতর ঝুঁকিও বহন করে।

এই নিবন্ধে, আমরা এআই ডিপফেক কী, কীভাবে কাজ করে এবং আজকের বিশ্বে এটি যে মূল সুযোগ এবং বিপদ নিয়ে আসে তা অন্বেষণ করব।

ডিপফেক কী?

একটি ডিপফেক হল কৃত্রিম বুদ্ধিমত্তা দ্বারা তৈরি বা পরিবর্তিত একটি সিন্থেটিক মিডিয়া (ভিডিও, অডিও, ছবি বা এমনকি লেখা) যা বাস্তব কন্টেন্টের মতো বিশ্বাসযোগ্যভাবে অনুকরণ করে। এই শব্দটি এসেছে “ডিপ লার্নিং” (উন্নত এআই অ্যালগরিদম) এবং “ফেক” থেকে, এবং এটি জনপ্রিয় ব্যবহারে প্রবেশ করে ২০১৭ সালে একটি Reddit ফোরামে যেখানে ব্যবহারকারীরা সেলিব্রিটির মুখ বদলানো ভিডিও শেয়ার করত।

আধুনিক ডিপফেকগুলি প্রায়শই জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GANs) এর মতো প্রযুক্তি ব্যবহার করে – দুটি নিউরাল নেটওয়ার্ক যা একে অপরের বিরুদ্ধে প্রশিক্ষণ নিয়ে আরও বাস্তবসম্মত ফেক তৈরি করে। গত দশকে, এআই-র অগ্রগতির ফলে ডিপফেক তৈরি করা সহজ এবং সস্তা হয়েছে: ইন্টারনেট সংযোগ থাকা প্রত্যেকের হাতে এখন সিন্থেটিক মিডিয়া জেনারেটরের চাবি রয়েছে

প্রাথমিক ডিপফেকগুলি খারাপ উদ্দেশ্যে (যেমন সেলিব্রিটির মুখ নকল ভিডিওতে প্রবেশ করানো) ব্যবহারের জন্য কুখ্যাতি অর্জন করেছিল, যার ফলে প্রযুক্তিটির নেতিবাচক সুনাম গড়ে ওঠে। তবে, সব এআই-উত্পাদিত সিন্থেটিক কন্টেন্টই খারাপ নয়। অনেক প্রযুক্তির মতো, ডিপফেকও একটি হাতিয়ার – এর প্রভাব (ভালো বা খারাপ) নির্ভর করে এটি কীভাবে ব্যবহৃত হয় তার উপর

বিশ্ব অর্থনৈতিক ফোরামের মতে, যদিও অনেক নেতিবাচক উদাহরণ রয়েছে, “এমন সিন্থেটিক কন্টেন্টও সুবিধা নিয়ে আসতে পারে।” নিচের অংশে, আমরা ডিপফেক এআই-এর কিছু উল্লেখযোগ্য ইতিবাচক প্রয়োগ এবং এই প্রযুক্তির সাথে সম্পর্কিত গুরুতর ঝুঁকি ও অপব্যবহার নিয়ে আলোচনা করব।

ডিপফেক

ডিপফেক এআই-এর সুযোগ এবং ইতিবাচক প্রয়োগসমূহ

তাদের বিতর্কিত সুনাম সত্ত্বেও, ডিপফেক (যা প্রায়শই নিরপেক্ষভাবে “সিন্থেটিক মিডিয়া” নামে পরিচিত) সৃজনশীল, শিক্ষামূলক এবং মানবিক ক্ষেত্রে বেশ কয়েকটি ইতিবাচক প্রয়োগ প্রদান করে:

  • বিনোদন এবং মিডিয়া: চলচ্চিত্র নির্মাতারা ডিপফেক প্রযুক্তি ব্যবহার করে চমকপ্রদ ভিজ্যুয়াল ইফেক্ট তৈরি করছেন এবং এমনকি অভিনেতাদের “যুবকরণ” করছেন। উদাহরণস্বরূপ, সর্বশেষ ইন্ডিয়ানা জোন্স চলচ্চিত্রে AI প্রশিক্ষণের মাধ্যমে হ্যারিসন ফোর্ডের যুবক রূপ ডিজিটালি পুনর্নির্মাণ করা হয়েছে। এই প্রযুক্তি ঐতিহাসিক ব্যক্তিত্ব বা মৃত অভিনেতাদের নতুন পারফরম্যান্সের জন্য পুনরুজ্জীবিত করতে পারে এবং সঠিক ঠোঁটের গতি মিলিয়ে ডাবিং উন্নত করতে পারে।
    মোটের উপর, ডিপফেক সিনেমা, টেলিভিশন এবং গেমে আরও গভীর এবং বাস্তবসম্মত কন্টেন্ট তৈরি করতে সক্ষম।

  • শিক্ষা এবং প্রশিক্ষণ: ডিপফেক প্রযুক্তি শেখার অভিজ্ঞতাকে আরও আকর্ষণীয় এবং ইন্টারেক্টিভ করতে পারে। শিক্ষকরা শিক্ষামূলক সিমুলেশন বা ঐতিহাসিক পুনর্নির্মাণ তৈরি করতে পারেন যেখানে বিখ্যাত ব্যক্তিদের জীবন্ত রূপ তুলে ধরা হয়, যা ইতিহাস বা বিজ্ঞান পাঠকে জীবন্ত করে তোলে।
    এআই দ্বারা তৈরি বাস্তবসম্মত রোল-প্লে পরিস্থিতি (যেমন, চিকিৎসা জরুরি অবস্থা বা বিমান ককপিট পরিস্থিতি অনুকরণ) স্বাস্থ্যসেবা, বিমানচালনা, সামরিক এবং অন্যান্য ক্ষেত্রে পেশাদারদের প্রশিক্ষণে সাহায্য করে। এই AI-উত্পাদিত সিমুলেশনগুলি শিক্ষার্থীদের বাস্তব পরিস্থিতির জন্য নিরাপদ ও নিয়ন্ত্রিত পরিবেশে প্রস্তুত করে।

  • অ্যাক্সেসিবিলিটি এবং যোগাযোগ: AI-উত্পাদিত মিডিয়া ভাষা এবং যোগাযোগের বাধা ভেঙে দিচ্ছে। ডিপফেক অনুবাদকরা ভিডিওকে একাধিক ভাষায় ডাব করতে পারে, বক্তার কণ্ঠস্বর এবং ভঙ্গিমা বজায় রেখে – একজন শিল্পী, FKA Twigs, এমনকি এমন একটি ডিপফেক তৈরি করেছেন যা এমন ভাষায় কথা বলে যা তিনি জানেন না। এর জীবনরক্ষাকারী সম্ভাবনা রয়েছে: জরুরি পরিষেবাগুলি AI কণ্ঠ অনুবাদ ব্যবহার করে ৯১১ কল দ্রুত অনুবাদ করেছে, সংকটকালীন পরিস্থিতিতে অনুবাদের সময় ৭০% পর্যন্ত কমিয়েছে।
    একইভাবে, ডিপফেক চালিত সাইন ল্যাঙ্গুয়েজ অবতার তৈরি হচ্ছে যা বধির দর্শকদের জন্য বক্তৃতাকে সাইন ভাষায় অনুবাদ করে, এতটাই বাস্তবসম্মত ভিডিও তৈরি করে যে প্রাথমিক গবেষণায় অ্যালগরিদমগুলো এগুলোকে প্রকৃত মানব সাইনার থেকে আলাদা করতে পারেনি। আরেকটি গুরুত্বপূর্ণ ব্যবহার হল ব্যক্তিগত কণ্ঠস্বর ক্লোনিং, যারা কথা বলার ক্ষমতা হারিয়েছেন তাদের জন্য – উদাহরণস্বরূপ, একজন মার্কিন কংগ্রেসওম্যান যিনি নিউরোডিজেনারেটিভ রোগে আক্রান্ত, তিনি AI-উত্পাদিত নিজের কণ্ঠস্বরের ক্লোন ব্যবহার করে আইনপ্রণেতাদের উদ্দেশ্যে ভাষণ দিয়েছেন, যা তাকে “নিজের কণ্ঠস্বরের স্বরে কথা বলার” সুযোগ দিয়েছে, যদিও তিনি কথা বলতে পারেননি।
    এই প্রয়োগগুলি দেখায় কিভাবে ডিপফেক অ্যাক্সেসিবিলিটি উন্নত করছে এবং মানুষের কণ্ঠস্বর ও যোগাযোগ সংরক্ষণ করছে।

  • স্বাস্থ্যসেবা এবং থেরাপি: চিকিৎসা ক্ষেত্রে, সিন্থেটিক মিডিয়া গবেষণা এবং রোগীর মঙ্গল উভয়েই সাহায্য করতে পারে। AI-উত্পাদিত চিকিৎসা চিত্রগুলি ডায়াগনস্টিক অ্যালগরিদমের প্রশিক্ষণ ডেটা বাড়াতে পারে – একটি গবেষণায় দেখা গেছে যে GAN-উত্পাদিত MRI চিত্রে প্রশিক্ষিত একটি টিউমার সনাক্তকরণ AI সিস্টেম বাস্তব স্ক্যানের প্রশিক্ষণে প্রশিক্ষিত সিস্টেমের মতোই কার্যকর। এর অর্থ ডিপফেকগুলি রোগীর গোপনীয়তা ঝুঁকি ছাড়াই প্রচুর প্রশিক্ষণ ডেটা তৈরি করে চিকিৎসা AI উন্নত করতে পারে।
    থেরাপিউটিক্যালি, নিয়ন্ত্রিত ডিপফেক রোগীদের সান্ত্বনা দিতে পারে। উদাহরণস্বরূপ, যত্নদাতারা এমন ভিডিও তৈরি করার চেষ্টা করেছেন যেখানে আলঝেইমার রোগীর প্রিয়জন তাদের যুবক রূপে (যে সময়কাল রোগী সবচেয়ে ভালো মনে রাখে) উপস্থিত হন, যা রোগীর বিভ্রান্তি এবং উদ্বেগ কমায়। জনস্বাস্থ্য প্রচারণায়, ডিপফেক প্রযুক্তি শক্তিশালী বার্তা পৌঁছে দিয়েছে: একটি ম্যালেরিয়া বিরোধী প্রচারণায়, ফুটবল তারকা ডেভিড বেকহ্যামের ভিডিও বার্তা AI দ্বারা পরিবর্তিত হয়েছিল যাতে তিনি নয়টি ভাষায় কথা বলছিলেন, যা বিশ্বব্যাপী অর্ধ বিলিয়ন মানুষকে সচেতনতা প্রচারণায় সাহায্য করেছে। এটি দেখায় কিভাবে সিন্থেটিক মিডিয়া গুরুত্বপূর্ণ বার্তা বহুগুণে পৌঁছে দিতে পারে।

  • গোপনীয়তা এবং অজ্ঞাত পরিচয়: পরস্পরবিরোধী হলেও, একই মুখ-পরিবর্তন ক্ষমতা যা মিথ্যা খবর তৈরি করতে পারে, তা গোপনীয়তা রক্ষা করতেও পারে। কর্মী, হুইসেলব্লোয়ার বা ঝুঁকিপূর্ণ ব্যক্তিদের মুখ পরিবর্তন করে AI-উত্পাদিত বাস্তবসম্মত মুখ দিয়ে তাদের পরিচয় লুকানো যায়, স্পষ্ট ব্লারিং ছাড়াই।
    একটি উল্লেখযোগ্য উদাহরণ হল ২০২০ সালের ডকুমেন্টারি “ওয়েলকাম টু চেচনিয়া”, যেখানে AI-উত্পাদিত মুখের ওভারলে ব্যবহার করে LGBT কর্মীদের পরিচয় লুকানো হয়েছিল, তাদের মুখাবয়ব এবং আবেগ বজায় রেখে। এর ফলে দর্শকরা বিষয়গুলোর মানবিকতার সাথে সংযোগ স্থাপন করতে পেরেছিলেন, যদিও প্রদর্শিত মুখগুলো আসল ছিল না।
    গবেষকরা এই ধারণাকে দৈনন্দিন গোপনীয়তার জন্য সরঞ্জামে সম্প্রসারিত করছেন – উদাহরণস্বরূপ, পরীক্ষামূলক “অজ্ঞাতকরণ সিস্টেম” স্বয়ংক্রিয়ভাবে সোশ্যাল মিডিয়ায় শেয়ার করা ছবিতে ব্যক্তির মুখ পরিবর্তন করতে পারে যদি তারা সনাক্তকরণের জন্য সম্মতি না দিয়ে থাকে, একটি সিন্থেটিক অনুরূপ দিয়ে। একইভাবে, “ভয়েস স্কিন” প্রযুক্তি বক্তার কণ্ঠস্বরকে রিয়েল-টাইমে পরিবর্তন করতে পারে (যেমন অনলাইন গেম বা ভার্চুয়াল মিটিংয়ে) পক্ষপাত বা হয়রানি প্রতিরোধ করতে, তবুও মূল আবেগ এবং উদ্দেশ্য বজায় রেখে।
    এই প্রয়োগগুলি ইঙ্গিত দেয় যে ডিপফেক ব্যক্তি তাদের ডিজিটাল পরিচয় এবং নিরাপত্তা নিয়ন্ত্রণে সাহায্য করতে পারে।

ডিপফেক মুখ-পরিবর্তন ব্যবহার করে ব্যক্তিদের অজ্ঞাতকরণ করা যেতে পারে। উদাহরণস্বরূপ, “ওয়েলকাম টু চেচনিয়া” চলচ্চিত্রটি ঝুঁকিপূর্ণ কর্মীদের AI দ্বারা স্বেচ্ছাসেবক অভিনেতাদের মুখ দিয়ে ওভারলে করে তাদের পরিচয় লুকিয়েছিল, স্বাভাবিক অভিব্যক্তি বজায় রেখে। এটি দেখায় কিভাবে সিন্থেটিক মিডিয়া সংবেদনশীল পরিস্থিতিতে গোপনীয়তা রক্ষা করতে পারে।

সারসংক্ষেপে, ডিপফেক একটি দ্বিধাবিভক্ত অস্ত্র। একদিকে, “সিন্থেটিক কন্টেন্ট স্বতঃসিদ্ধভাবে ইতিবাচক বা নেতিবাচক নয় – এর প্রভাব নির্ভর করে ব্যবহারকারী এবং তাদের উদ্দেশ্যের উপর”। উপরোক্ত উদাহরণগুলি ডিপফেক প্রযুক্তিকে সৃজনশীলতা, যোগাযোগ এবং সামাজিক কল্যাণের জন্য ব্যবহার করার সুযোগ তুলে ধরে।

তবে, এই শক্তিশালী হাতিয়ারের বিপরীত দিক হল এর বিশাল ক্ষতিকর সম্ভাবনা যখন এটি খারাপ উদ্দেশ্যে ব্যবহৃত হয়। সাম্প্রতিক বছরগুলোতে ডিপফেক-ভিত্তিক প্রতারণা এবং অপব্যবহারের অনেক সতর্কতামূলক গল্প এসেছে, যা আমরা পরবর্তী অংশে বিশ্লেষণ করব।

ডিপফেক এআই-এর সুযোগ এবং ইতিবাচক প্রয়োগসমূহ

ডিপফেকের ঝুঁকি এবং অপব্যবহার

সহজে তৈরি করা যায় এমন ডিপফেকের বিস্তার গুরুতর চিন্তা এবং হুমকি সৃষ্টি করেছে। ২০২৩ সালের একটি জরিপে দেখা গেছে ৬০% আমেরিকান ডিপফেক নিয়ে “খুবই উদ্বিগ্ন”, যা তাদের শীর্ষ এআই-সম্পর্কিত ভয়ের তালিকায় প্রথম স্থানে রয়েছে। ডিপফেক প্রযুক্তির সাথে সম্পর্কিত প্রধান ঝুঁকিগুলো হলো:

  • ভুল তথ্য এবং রাজনৈতিক মনিপুলেশন: ডিপফেক বড় পরিসরে মিথ্যা তথ্য ছড়ানোর জন্য অস্ত্র হিসেবে ব্যবহার করা যেতে পারে। জনসাধারণের ব্যক্তিত্বদের জাল ভিডিও বা অডিও তৈরি করে তাদের এমন কাজ বা কথা বলানো দেখানো হয় যা কখনো হয়নি, যা জনগণকে বিভ্রান্ত করে। এই মিথ্যাগুলো প্রতিষ্ঠানগুলোর প্রতি বিশ্বাস কমিয়ে দেয়, জনমত প্রভাবিত করে বা এমনকি বিশৃঙ্খলা সৃষ্টি করতে পারে।

    উদাহরণস্বরূপ, রাশিয়ার ইউক্রেন যুদ্ধের সময়, প্রেসিডেন্ট ভলোদিমির জেলেনস্কির একটি ডিপফেক ভিডিও ছড়িয়ে পড়েছিল যেখানে তিনি আত্মসমর্পণ করছেন বলে দেখানো হয়েছিল; যদিও এটি দ্রুত ভুল প্রমাণিত হয় কারণ অস্বাভাবিক বড় মাথা এবং অদ্ভুত কণ্ঠস্বরের মতো ত্রুটি ছিল, এটি দেখিয়েছিল যে প্রতিপক্ষরা AI ফেক ব্যবহার করে প্রোপাগান্ডা চালাতে পারে।
    একইভাবে, ২০২৩ সালে পেন্টাগনের কাছে একটি “বিস্ফোরণের” জাল ছবি ভাইরাল হয়েছিল এবং এটি সংক্ষিপ্ত সময়ের জন্য শেয়ার বাজারে পতন ঘটিয়েছিল, পরে কর্তৃপক্ষ জানিয়েছে এটি AI-উত্পাদিত।

    ডিপফেক উন্নত হওয়ার সাথে সাথে উদ্বেগ হচ্ছে যে এগুলো অত্যন্ত বিশ্বাসযোগ্য মিথ্যা খবর তৈরি করতে পারে, যা জনগণের বাস্তবতা এবং কল্পনার মধ্যে পার্থক্য করার ক্ষমতা ক্ষয় করবে। এটি শুধুমাত্র মিথ্যা ছড়ায় না, বরং একটি ভীতিকর “মিথ্যাবাদীর সুবিধা” সৃষ্টি করে – মানুষ প্রকৃত ভিডিও বা প্রমাণকেও সন্দেহ করতে শুরু করতে পারে, দাবি করে এগুলো ডিপফেক। এর ফলে সত্যের অবক্ষয় এবং মিডিয়া ও গণতান্ত্রিক আলোচনায় বিশ্বাসের আরও ক্ষতি হয়।

  • অবৈধ পর্নোগ্রাফি এবং হয়রানি: ডিপফেকের সবচেয়ে প্রাথমিক এবং ব্যাপক খারাপ ব্যবহারগুলোর মধ্যে একটি হল জাল স্পষ্ট কন্টেন্ট তৈরি। কয়েকটি ছবি ব্যবহার করে, আক্রমণকারীরা (প্রায়শই গোপন ফোরাম বা অ্যাপের মাধ্যমে) ব্যক্তিদের – সাধারণত নারীদের – বাস্তবসম্মত পর্নোগ্রাফিক ভিডিও তৈরি করতে পারে তাদের সম্মতি ছাড়াই। এটি গোপনীয়তার গুরুতর লঙ্ঘন এবং যৌন হয়রানির একটি রূপ।

    গবেষণায় দেখা গেছে অনলাইন ডিপফেক ভিডিওর প্রায় ৯০-৯৫% অবৈধ পর্নোগ্রাফি, যার অধিকাংশই নারী ভুক্তভোগী। এই জাল ভিডিও ব্যক্তিগতভাবে বিধ্বংসী হতে পারে, লজ্জা, মানসিক আঘাত, সুনাম ক্ষতি এবং এমনকি চাঁদাবাজির হুমকি সৃষ্টি করে। উচ্চপ্রোফাইল অভিনেত্রী, সাংবাদিক এবং ব্যক্তিগত ব্যক্তিরাও তাদের মুখ প্রাপ্তবয়স্ক কন্টেন্টে পেস্ট হওয়ার শিকার হয়েছেন।

    আইন প্রয়োগকারী সংস্থা এবং নীতিনির্ধারকরা এই প্রবণতা নিয়ে ক্রমবর্ধমান উদ্বিগ্ন; উদাহরণস্বরূপ, মার্কিন যুক্তরাষ্ট্রে বেশ কয়েকটি রাজ্য এবং কেন্দ্রীয় সরকার ডিপফেক পর্নোগ্রাফি অপরাধী করার জন্য আইন প্রস্তাব বা পাশ করেছে এবং ভুক্তভোগীদের আইনি সহায়তা প্রদান করছে। ডিপফেক পর্নের ক্ষতি দেখায় কিভাবে এই প্রযুক্তি গোপনীয়তা লঙ্ঘন, ব্যক্তিদের (প্রায়শই নারীদের বিরুদ্ধে পক্ষপাতমূলক) টার্গেট এবং অপবাদমূলক জাল ছবি ছড়ানোর জন্য ব্যবহার করা যেতে পারে, যা অপরাধীদের জন্য কম খরচে।

  • প্রতারণা এবং ছদ্মবেশী স্ক্যাম: ডিপফেক সাইবার অপরাধীদের জন্য একটি বিপজ্জনক নতুন অস্ত্র হিসেবে আবির্ভূত হয়েছে। AI-উত্পাদিত কণ্ঠস্বর ক্লোন এবং লাইভ ভিডিও ডিপফেক ব্যবহার করে বিশ্বস্ত ব্যক্তিদের ছদ্মবেশ ধারণ করে প্রতারণা করা হয়। FBI সতর্ক করেছে যে অপরাধীরা AI কণ্ঠ/ভিডিও ক্লোনিং ব্যবহার করে পরিবারের সদস্য, সহকর্মী বা নির্বাহীদের ছদ্মবেশ ধারণ করছে – ভুক্তভোগীদের টাকা পাঠাতে বা সংবেদনশীল তথ্য প্রকাশ করতে প্ররোচিত করছে।

    এই স্ক্যামগুলি প্রায়শই “ছদ্মবেশ” প্রতারণার একটি উচ্চ প্রযুক্তির রূপ, যা ইতিমধ্যেই উল্লেখযোগ্য ক্ষতি করেছে। এক বাস্তব ঘটনায়, চোরেরা AI ব্যবহার করে একটি CEO-এর কণ্ঠস্বর অনুকরণ করে একটি কর্মীকে €২২০,০০০ (প্রায় $২৪০,০০০) পাঠাতে সফল হয়েছিল। অন্য একটি ঘটনার সময়, অপরাধীরা একটি কোম্পানির CFO-এর ভিডিও উপস্থিতি ডিপফেক করে জুম কলের মাধ্যমে $২৫ মিলিয়ন ট্রান্সফার অনুমোদন করিয়েছিল।

    এমন ডিপফেক-চালিত সামাজিক প্রকৌশল আক্রমণ বৃদ্ধি পাচ্ছে – প্রতিবেদনগুলো দেখায় গত কয়েক বছরে বিশ্বব্যাপী ডিপফেক প্রতারণার ব্যাপক বৃদ্ধি। অত্যন্ত বিশ্বাসযোগ্য জাল কণ্ঠ/ভিডিও এবং দ্রুত ডিজিটাল যোগাযোগের সমন্বয় ভুক্তভোগীদের অপ্রস্তুত অবস্থায় ফেলে দেয়। ব্যবসাগুলো বিশেষত “CEO স্ক্যাম” বা জাল নির্বাহীদের আদেশের ঝুঁকিতে রয়েছে।

    যদি কর্মীদের অডিওভিজ্যুয়াল মিডিয়ার প্রতি সন্দেহপ্রবণ হতে প্রশিক্ষণ না দেওয়া হয়, তারা বৈধ মনে হওয়া ডিপফেক নির্দেশনা অনুসরণ করতে পারে। এর ফলাফল হতে পারে অর্থ চুরি, ডেটা লঙ্ঘন বা অন্যান্য ব্যয়বহুল ক্ষতি। এই হুমকি নিরাপত্তা বিশেষজ্ঞদের শক্তিশালী পরিচয় যাচাই পদ্ধতি (যেমন, অনুরোধ নিশ্চিত করতে নিরাপদ ব্যাকচ্যানেল ব্যবহার) এবং সংবেদনশীল লেনদেনে অডিও ও ভিডিও যাচাই করার প্রযুক্তিগত সনাক্তকরণ সরঞ্জাম ব্যবহারের পরামর্শ দিয়েছে।

  • বিশ্বাসের অবক্ষয় এবং আইনি চ্যালেঞ্জ: ডিপফেকের আগমন বাস্তবতা এবং কল্পনার মধ্যে সীমানা অস্পষ্ট করে দেয়, যা ব্যাপক সামাজিক এবং নৈতিক উদ্বেগ সৃষ্টি করে। জাল কন্টেন্ট যত বেশি বিশ্বাসযোগ্য হয়, মানুষ প্রকৃত প্রমাণ সন্দেহ করতে শুরু করতে পারে – যা বিচার এবং জনবিশ্বাসের জন্য বিপজ্জনক পরিস্থিতি।

    উদাহরণস্বরূপ, একটি প্রকৃত ভুল কাজের ভিডিও ভুল ব্যক্তির দ্বারা “ডিপফেক” বলে খারিজ করা যেতে পারে, যা সাংবাদিকতা এবং আইনি প্রক্রিয়াকে জটিল করে তোলে। ডিজিটাল মিডিয়ায় বিশ্বাসের এই অবক্ষয় পরিমাপ করা কঠিন, তবে দীর্ঘমেয়াদে খুব ক্ষতিকর।

    ডিপফেক আইনি জটিলতাও সৃষ্টি করে: একজন ব্যক্তির AI-উত্পাদিত চেহারার অধিকার কার? একটি জাল ভিডিও যা কারো সুনাম ক্ষতিগ্রস্ত করে, তার বিরুদ্ধে মানহানির আইন কীভাবে প্রযোজ্য? এছাড়াও সম্মতি এবং নৈতিক প্রশ্ন রয়েছে – কারো মুখ বা কণ্ঠস্বর অনুমতি ছাড়া ডিপফেকে ব্যবহার সাধারণত তাদের অধিকার লঙ্ঘন হিসেবে গণ্য হয়, তবে আইন এখনও এই বাস্তবতার সাথে খাপ খাইয়ে নিচ্ছে।

    কিছু অঞ্চলে পরিবর্তিত মিডিয়া স্পষ্টভাবে লেবেল করার প্রয়োজনীয়তা শুরু হয়েছে, বিশেষ করে রাজনৈতিক বিজ্ঞাপন বা নির্বাচনে ব্যবহৃত হলে। এছাড়াও, সোশ্যাল নেটওয়ার্কের মতো প্ল্যাটফর্মগুলো ক্ষতিকর ডিপফেক সনাক্ত ও অপসারণে চাপের মুখে রয়েছে (যেমন তারা অন্যান্য ধরনের ভুল তথ্য বা পরিবর্তিত মিডিয়া পরিচালনা করে)।

    প্রযুক্তিগতভাবে, ডিপফেক সনাক্তকরণ একটি “অস্ত্র প্রতিযোগিতা”। গবেষকরা AI সনাক্তকরণ ব্যবস্থা তৈরি করছেন যা জালিয়াতির সূক্ষ্ম নিদর্শন যেমন মুখের রক্ত প্রবাহ বা পলকানোর প্যাটার্নে অস্বাভাবিকতা শনাক্ত করে। তবে, সনাক্তকরণ উন্নত হওয়ার সাথে সাথে ডিপফেক পদ্ধতিও পালানোর জন্য উন্নত হচ্ছে – যা একটি অবিরাম বিড়াল-মাউস খেলা সৃষ্টি করছে।

    এই সব চ্যালেঞ্জ স্পষ্ট করে যে সমাজকে AI যুগে মিডিয়া প্রামাণিকভাবে যাচাই করার উপায় খুঁজে বের করতে হবে এবং অপব্যবহারের জন্য ডিপফেক নির্মাতাদের দায়বদ্ধ করতে হবে।

ডিপফেকের ঝুঁকি এবং অপব্যবহার

ডিপফেক যুগে পথ চলা: একটি সুষম সমাধান

এআই ডিপফেক প্রযুক্তিগত অগ্রগতির একটি ক্লাসিক দ্বিধা উপস্থাপন করে: বিশাল সম্ভাবনা এবং বিপদের সংমিশ্রণ। একদিকে, আমরা অভূতপূর্ব সৃজনশীল এবং উপকারী ব্যবহার দেখতে পাচ্ছি – কণ্ঠস্বর সংরক্ষণ, ভাষা অনুবাদ, নতুন গল্প বলার রূপ কল্পনা এবং গোপনীয়তা রক্ষা থেকে শুরু করে।

অন্যদিকে, ডিপফেকের খারাপ ব্যবহার গোপনীয়তা, নিরাপত্তা এবং জনবিশ্বাসের জন্য হুমকি। এগিয়ে যাওয়ার জন্য, সুবিধাগুলো সর্বাধিক এবং ক্ষতিগুলো সর্বনিম্ন করা অপরিহার্য।

বিভিন্ন ক্ষেত্রেই প্রচেষ্টা চলছে। প্রযুক্তি কোম্পানি এবং গবেষকরা সনাক্তকরণ সরঞ্জাম এবং প্রামাণিকতা কাঠামো (যেমন ডিজিটাল ওয়াটারমার্ক বা কন্টেন্ট যাচাই মান) তৈরি করছে যাতে মানুষ আসল এবং জাল মিডিয়া আলাদা করতে পারে। বিশ্বব্যাপী নীতিনির্ধারকরা সবচেয়ে অপব্যবহারমূলক ডিপফেক অনুশীলন নিয়ন্ত্রণে আইন প্রণয়ন নিয়ে কাজ করছে – যেমন জাল পর্ন নিষিদ্ধকরণ, নির্বাচনী ভুল তথ্য নিয়ন্ত্রণ বা AI-পরিবর্তিত মিডিয়ার ক্ষেত্রে প্রকাশনার বাধ্যবাধকতা।

তবে, প্রযুক্তির দ্রুত বিকাশ এবং সীমান্ত অতিক্রমের কারণে শুধুমাত্র নিয়ন্ত্রণ কঠিন। শিক্ষা এবং সচেতনতা সমান গুরুত্বপূর্ণ: ডিজিটাল সাক্ষরতা কর্মসূচি জনগণকে মিডিয়া সমালোচনামূলকভাবে মূল্যায়ন করতে এবং ডিপফেকের লক্ষণগুলি চিনতে শেখাতে পারে, যেমন তারা ইমেইল স্ক্যাম বা ফিশিং চেষ্টাগুলো চিনতে শিখেছে।

যদি ব্যবহারকারীরা জানেন যে “পারফেক্ট” বা চমকপ্রদ ফুটেজ হয়তো কৃত্রিম, তারা প্রতিক্রিয়া জানানো বা শেয়ার করার আগে তা বিবেচনা করতে পারবেন।

>>> আরও জানতে ক্লিক করুন:

ডিজিটাল যুগে AI-এর ভূমিকা

এআই এবং ডেটা সুরক্ষা সংক্রান্ত সমস্যা

ডিপফেক যুগে পথ চলা


অবশেষে, ডিপফেক ঘটনা স্থায়ী – “জিনি বোতল থেকে বেরিয়ে গেছে এবং আমরা তাকে ফিরিয়ে দিতে পারব না”। আতঙ্কিত হওয়া বা সম্পূর্ণ নিষেধাজ্ঞার পরিবর্তে, বিশেষজ্ঞরা একটি সুষম পন্থার পক্ষে: সিন্থেটিক মিডিয়ায় দায়িত্বশীল উদ্ভাবন উৎসাহিত করা এবং অপব্যবহারের বিরুদ্ধে শক্তিশালী রক্ষাকবচ তৈরি করা।

এর অর্থ হল বিনোদন, শিক্ষা, অ্যাক্সেসিবিলিটি ইত্যাদিতে ইতিবাচক প্রয়োগ নৈতিক নির্দেশিকার অধীনে উৎসাহিত করা, এবং একই সাথে নিরাপত্তা ব্যবস্থা, আইনি কাঠামো এবং নিয়মাবলীতে বিনিয়োগ করা যা খারাপ ব্যবহার শাস্তি দেয়। একসাথে কাজ করে – প্রযুক্তিবিদ, নিয়ন্ত্রক, কোম্পানি এবং নাগরিকরা – আমরা এমন একটি ভবিষ্যত গড়তে পারি যেখানে ডিপফেক এআই “সাধারণ, পরিচিত এবং বিশ্বাসযোগ্য”। এমন ভবিষ্যতে, আমরা ডিপফেকের সৃজনশীলতা এবং সুবিধা কাজে লাগাবো, পাশাপাশি তারা যে নতুন প্রতারণার রূপ তৈরি করে তার বিরুদ্ধে সতর্ক এবং প্রতিরোধী থাকব।

সুযোগগুলো উত্তেজনাপূর্ণ, এবং ঝুঁকিগুলো বাস্তব – উভয়ই স্বীকার করাই একটি AI-চালিত মিডিয়া পরিবেশ গঠনের প্রথম ধাপ যা সমাজের জন্য উপকারী।

বাইরের রেফারেন্সসমূহ
এই নিবন্ধটি নিম্নলিখিত বাইরের উৎসের মাধ্যমে সংকলিত: