কৃত্রিম বুদ্ধিমত্তা (এআই) এখন স্মার্টফোন সহকারী, সোশ্যাল মিডিয়া ফিড থেকে শুরু করে স্বাস্থ্যসেবা ও পরিবহন পর্যন্ত সর্বত্র প্রবেশ করেছে। এই প্রযুক্তিগুলো অভূতপূর্ব সুবিধা নিয়ে আসে, তবে এর সাথে উল্লেখযোগ্য ঝুঁকি ও চ্যালেঞ্জও রয়েছে।
বিশেষজ্ঞ ও বিশ্বব্যাপী প্রতিষ্ঠানগুলো সতর্ক করেছেন যে যথাযথ নৈতিক নিয়ম না থাকলে, এআই বাস্তব জীবনের পক্ষপাত ও বৈষম্য পুনরুত্পাদন করতে পারে, পরিবেশের ক্ষতি করতে পারে, মানবাধিকার হুমকির মুখে ফেলতে পারে এবং বিদ্যমান বৈষম্যকে বাড়িয়ে তুলতে পারে।
এই নিবন্ধে, আসুন INVIAI এর সাথে এআই ব্যবহারের ঝুঁকিগুলো আলোচনা করি, যা চ্যাটবট, অ্যালগরিদম থেকে রোবট পর্যন্ত সব ধরনের এআই-র ক্ষেত্রে সরকারি ও আন্তর্জাতিক সূত্রের অন্তর্দৃষ্টি ভিত্তিতে।
- 1. এআই সিস্টেমে পক্ষপাত ও বৈষম্য
- 2. মিথ্যা তথ্য ও ডিপফেকের ঝুঁকি
- 3. গোপনীয়তা ও ব্যাপক নজরদারির হুমকি
- 4. নিরাপত্তা ব্যর্থতা ও অনিচ্ছাকৃত ক্ষতি
- 5. চাকরির স্থানচ্যুতি ও অর্থনৈতিক ব্যাঘাত
- 6. অপরাধমূলক অপব্যবহার, প্রতারণা ও নিরাপত্তা হুমকি
- 7. সামরিকীকরণ ও স্বয়ংক্রিয় অস্ত্র
- 8. স্বচ্ছতা ও জবাবদিহিতার অভাব
- 9. ক্ষমতার একাগ্রতা ও বৈষম্য
- 10. এআই-এর পরিবেশগত প্রভাব
- 11. অস্তিত্বগত ও দীর্ঘমেয়াদী ঝুঁকি
এআই সিস্টেমে পক্ষপাত ও বৈষম্য
এআই-এর একটি প্রধান ঝুঁকি হলো পক্ষপাত ও অন্যায় বৈষম্যের স্থায়িত্ব। এআই মডেলগুলো এমন ডেটা থেকে শেখে যা ঐতিহাসিক পক্ষপাত বা বৈষম্য প্রতিফলিত করতে পারে; ফলে, একটি এআই সিস্টেম বর্ণ, লিঙ্গ বা অন্যান্য বৈশিষ্ট্যের ভিত্তিতে মানুষকে ভিন্নভাবে আচরণ করতে পারে যা অন্যায় অবিচারকে বাড়িয়ে তোলে।
উদাহরণস্বরূপ, “ত্রুটিপূর্ণ সাধারণ উদ্দেশ্যের এআই সুরক্ষিত বৈশিষ্ট্য যেমন বর্ণ, লিঙ্গ, সংস্কৃতি, বয়স এবং প্রতিবন্ধকতার ক্ষেত্রে পক্ষপাতমূলক সিদ্ধান্তের মাধ্যমে ক্ষতি করতে পারে,” একটি আন্তর্জাতিক এআই নিরাপত্তা প্রতিবেদনে উল্লেখ করা হয়েছে।
নিয়োগ, ঋণদান বা পুলিশিংয়ে ব্যবহৃত পক্ষপাতমূলক অ্যালগরিদম ইতিমধ্যেই অসামঞ্জস্যপূর্ণ ফলাফল সৃষ্টি করেছে যা নির্দিষ্ট গোষ্ঠীগুলোর প্রতি অন্যায় বৈষম্য সৃষ্টি করে। ইউনেস্কোর মতো বিশ্বব্যাপী সংস্থা সতর্ক করেছে যে ন্যায়পরায়ণতা ছাড়া, এআই ঝুঁকি নিয়ে আসে “বাস্তব জীবনের পক্ষপাত ও বৈষম্য পুনরুত্পাদন, বিভাজন বাড়ানো এবং মৌলিক মানবাধিকার ও স্বাধীনতাকে হুমকির মুখে ফেলা”। এআই সিস্টেমগুলোকে বৈচিত্র্যময়, প্রতিনিধিত্বমূলক ডেটা দিয়ে প্রশিক্ষণ দেওয়া এবং পক্ষপাতের জন্য নিরীক্ষণ করা অত্যাবশ্যক যাতে স্বয়ংক্রিয় বৈষম্য প্রতিরোধ করা যায়।
মিথ্যা তথ্য ও ডিপফেকের ঝুঁকি
এআই-এর অত্যন্ত বাস্তবসম্মত টেক্সট, ছবি ও ভিডিও তৈরি করার ক্ষমতা মিথ্যা তথ্যের প্রবাহের আশঙ্কা বাড়িয়েছে। জেনারেটিভ এআই বিশ্বাসযোগ্য ভুয়া সংবাদ, মিথ্যা ছবি বা ডিপফেক ভিডিও তৈরি করতে পারে যা বাস্তব থেকে আলাদা করা কঠিন।
বিশ্ব অর্থনৈতিক ফোরামের গ্লোবাল রিস্কস রিপোর্ট ২০২৪ উল্লেখ করেছে “প্রচলিত ও বিকৃত তথ্য” কে সবচেয়ে গুরুতর স্বল্পমেয়াদী বৈশ্বিক ঝুঁকি হিসেবে, এবং বলেছেন যে এআই “প্রচলিত ও বিকৃত তথ্যকে বাড়িয়ে তোলে যা সমাজকে অস্থিতিশীল করতে পারে”।
প্রকৃতপক্ষে, এআই দ্বারা চালিত মিথ্যা তথ্য ও বিভ্রান্তি “গণতান্ত্রিক প্রক্রিয়ার সবচেয়ে বড় চ্যালেঞ্জগুলোর একটি” – বিশেষ করে আসন্ন নির্বাচনে কোটি কোটি ভোটার থাকায়। ডিপফেক ভিডিও ও এআই-ক্লোনকৃত কণ্ঠস্বরের মতো সিন্থেটিক মিডিয়া প্রচার চালানো, জননায়কদের নকল করা বা প্রতারণার জন্য ব্যবহার করা যেতে পারে।
কর্তৃপক্ষ সতর্ক করেছেন যে দুর্বৃত্তরা বড় পরিসরে মিথ্যা তথ্য প্রচারের জন্য এআই ব্যবহার করতে পারে, যা সোশ্যাল নেটওয়ার্কে ভুয়া বিষয়বস্তু ছড়িয়ে দেওয়া ও বিশৃঙ্খলা সৃষ্টিকে সহজ করে তোলে। ঝুঁকি হলো এমন একটি তথ্য পরিবেশ যেখানে নাগরিকরা যা দেখে বা শুনে তার প্রতি বিশ্বাস রাখতে পারে না, যা জনসমাজের আলোচনা ও গণতন্ত্রকে ক্ষতিগ্রস্ত করে।
গোপনীয়তা ও ব্যাপক নজরদারির হুমকি
এআই-এর ব্যাপক ব্যবহার গুরুতর গোপনীয়তা উদ্বেগ সৃষ্টি করে। এআই সিস্টেমগুলো কার্যকরভাবে কাজ করার জন্য প্রায়শই প্রচুর ব্যক্তিগত তথ্য প্রয়োজন – আমাদের মুখমণ্ডল, কণ্ঠস্বর থেকে শুরু করে কেনাকাটার অভ্যাস ও অবস্থান পর্যন্ত। শক্তিশালী সুরক্ষা ছাড়া এই তথ্য অপব্যবহার বা শোষণ হতে পারে।
উদাহরণস্বরূপ, মুখমণ্ডল শনাক্তকরণ ও পূর্বাভাসমূলক অ্যালগরিদম ব্যাপক নজরদারি সক্ষম করতে পারে, ব্যক্তিদের প্রতিটি চলাচল ট্র্যাক করা বা তাদের আচরণ অনুমতি ছাড়া মূল্যায়ন করা। ইউনেস্কোর বিশ্বব্যাপী এআই নৈতিকতা সুপারিশ স্পষ্টভাবে সতর্ক করে যে “এআই সিস্টেমগুলো সামাজিক স্কোরিং বা ব্যাপক নজরদারির জন্য ব্যবহার করা উচিত নয়”। এই ধরনের ব্যবহার ব্যাপকভাবে অগ্রহণযোগ্য ঝুঁকি হিসেবে দেখা হয়।
এছাড়াও, ব্যক্তিগত তথ্যের এআই-চালিত বিশ্লেষণ আমাদের জীবনের অন্তরঙ্গ তথ্য যেমন স্বাস্থ্য অবস্থা থেকে রাজনৈতিক বিশ্বাস প্রকাশ করতে পারে, যা গোপনীয়তার অধিকার এর জন্য হুমকি। ডেটা সুরক্ষা সংস্থাগুলো জোর দিয়ে বলে যে গোপনীয়তা “মানব মর্যাদা, স্বায়ত্তশাসন ও কার্যকারিতার সুরক্ষার জন্য অপরিহার্য একটি অধিকার” যা এআই সিস্টেমের পুরো জীবনচক্র জুড়ে সম্মানিত হতে হবে।
যদি এআই উন্নয়ন গোপনীয়তা নিয়ন্ত্রণের চেয়ে দ্রুত হয়, ব্যক্তিরা তাদের তথ্যের নিয়ন্ত্রণ হারাতে পারেন। সমাজকে নিশ্চিত করতে হবে যে শক্তিশালী ডেটা শাসন, সম্মতি প্রক্রিয়া এবং গোপনীয়তা রক্ষাকারী প্রযুক্তি রয়েছে যাতে এআই প্রযুক্তি অবাধ নজরদারির হাতিয়ারে পরিণত না হয়।
নিরাপত্তা ব্যর্থতা ও অনিচ্ছাকৃত ক্ষতি
যদিও এআই সুপারহিউম্যান দক্ষতায় সিদ্ধান্ত ও শারীরিক কাজ স্বয়ংক্রিয় করতে পারে, এটি অপ্রত্যাশিতভাবে ব্যর্থ হতে পারে, যা বাস্তব জীবনে ক্ষতি ডেকে আনতে পারে। আমরা এআই-কে ক্রমবর্ধমান নিরাপত্তা-সংবেদনশীল দায়িত্ব যেমন গাড়ি চালানো, রোগ নির্ণয় বা বিদ্যুৎ গ্রিড পরিচালনার জন্য দায়িত্ব দিচ্ছি, তবে এই সিস্টেমগুলো অপরাজেয় নয়।
ত্রুটি, ত্রুটিপূর্ণ প্রশিক্ষণ ডেটা বা অপ্রত্যাশিত পরিস্থিতি এআই-কে বিপজ্জনক ভুল করতে পারে। একটি স্বয়ংক্রিয় গাড়ির এআই পথচারী ভুল শনাক্ত করতে পারে, অথবা একটি চিকিৎসা এআই ভুল চিকিৎসা পরামর্শ দিতে পারে, যার ফলাফল মারাত্মক হতে পারে।
এই বিষয়টি স্বীকার করে আন্তর্জাতিক নির্দেশিকা জোর দিয়ে বলে যে অপ্রত্যাশিত ক্ষতি ও নিরাপত্তা ঝুঁকি এড়ানো ও প্রতিরোধ করা উচিত: “অপ্রত্যাশিত ক্ষতি (নিরাপত্তা ঝুঁকি) এবং আক্রমণের প্রতি দুর্বলতা (নিরাপত্তা ঝুঁকি) এড়ানো ও সমাধান করা উচিত যাতে মানব, পরিবেশ ও ইকোসিস্টেমের নিরাপত্তা নিশ্চিত হয়।”
অর্থাৎ, এআই সিস্টেমগুলোকে কঠোরভাবে পরীক্ষা, পর্যবেক্ষণ ও ব্যর্থতা প্রতিরোধী করে তৈরি করতে হবে যাতে ত্রুটির সম্ভাবনা কম হয়। এআই-র ওপর অতিরিক্ত নির্ভরতা ঝুঁকিপূর্ণ হতে পারে – যদি মানুষ অটোমেটেড সিদ্ধান্তকে অন্ধভাবে বিশ্বাস করে, তাহলে ভুল হলে সময়মতো হস্তক্ষেপ করতে নাও পারে।
সুতরাং মানব তত্ত্বাবধান নিশ্চিত করা অত্যন্ত গুরুত্বপূর্ণ। উচ্চ ঝুঁকিপূর্ণ ক্ষেত্রে (যেমন স্বাস্থ্যসেবা বা পরিবহন), চূড়ান্ত সিদ্ধান্ত মানব বিচারাধীন থাকা উচিত, এবং ইউনেস্কো যেমন উল্লেখ করেছে, “জীবন-মৃত্যুর সিদ্ধান্ত এআই সিস্টেমের হাতে ছেড়ে দেওয়া উচিত নয়।” এআই-র নিরাপত্তা ও নির্ভরযোগ্যতা বজায় রাখা একটি চলমান চ্যালেঞ্জ, যা সতর্ক ডিজাইন ও দায়িত্বশীলতার সংস্কৃতি দাবি করে।
চাকরির স্থানচ্যুতি ও অর্থনৈতিক ব্যাঘাত
এআই-এর অর্থনীতিতে রূপান্তরমূলক প্রভাব একটি দ্বিধাবিভক্ত তরবারির মতো। একদিকে, এআই উৎপাদনশীলতা বাড়াতে ও সম্পূর্ণ নতুন শিল্প সৃষ্টি করতে পারে; অন্যদিকে, এটি মিলিয়ন মিলিয়ন কর্মীকে স্বয়ংক্রিয়তার মাধ্যমে স্থানচ্যুত করার ঝুঁকি বহন করে।
অনেক চাকরি – বিশেষ করে যেগুলো নিয়মিত, পুনরাবৃত্তিমূলক কাজ বা সহজে বিশ্লেষণযোগ্য ডেটার উপর নির্ভরশীল – এআই অ্যালগরিদম ও রোবট দ্বারা দখল হওয়ার ঝুঁকিতে। বিশ্বব্যাপী পূর্বাভাস উদ্বেগজনক: উদাহরণস্বরূপ, বিশ্ব অর্থনৈতিক ফোরাম অনুমান করেছে “২০৩০ সালের মধ্যে ৯২ মিলিয়ন চাকরি এআই ও সংশ্লিষ্ট প্রযুক্তির কারণে স্থানচ্যুত হতে পারে”।
যদিও অর্থনীতি নতুন ভূমিকা তৈরি করতে পারে (দীর্ঘমেয়াদে হারানো চাকরির চেয়ে বেশি হতে পারে), পরিবর্তনটি অনেকের জন্য কষ্টকর হবে। নতুন চাকরিগুলো প্রায়শই ভিন্ন, উন্নত দক্ষতা দাবি করে বা নির্দিষ্ট প্রযুক্তি কেন্দ্রগুলিতে কেন্দ্রীভূত থাকে, যার ফলে অনেক স্থানচ্যুত কর্মী নতুন অবস্থান খুঁজে পেতে সংগ্রাম করতে পারে।
এই কর্মীদের দক্ষতার সাথে নতুন এআই-চালিত ভূমিকার চাহিদার মধ্যে অসামঞ্জস্য উচ্চ বেকারত্ব ও বৈষম্যের কারণ হতে পারে যদি তা সমাধান না করা হয়। প্রকৃতপক্ষে, নীতিনির্ধারক ও গবেষকরা সতর্ক করেছেন যে দ্রুত এআই উন্নয়ন “শ্রম বাজারে ব্যাঘাত এবং অর্থনৈতিক ক্ষমতার বৈষম্য” সৃষ্টি করতে পারে।
কিছু গোষ্ঠী বেশি ক্ষতিগ্রস্ত হতে পারে – উদাহরণস্বরূপ, কিছু গবেষণায় দেখা গেছে যে মহিলাদের অধিকাংশ চাকরি বা উন্নয়নশীল দেশের কর্মীদের চাকরির বড় অংশ স্বয়ংক্রিয়তার উচ্চ ঝুঁকিতে রয়েছে। পুনঃপ্রশিক্ষণ, এআই দক্ষতার শিক্ষা ও সামাজিক নিরাপত্তা নেটওয়ার্কের মতো সক্রিয় পদক্ষেপ ছাড়া, এআই সামাজিক-অর্থনৈতিক ফাঁক বাড়িয়ে দিতে পারে, এমন একটি অর্থনীতি তৈরি করতে পারে যেখানে প্রযুক্তির মালিকরাই সর্বাধিক সুবিধা পায়।
এআই-এর প্রভাব মোকাবেলায় কর্মী প্রস্তুত করা অত্যন্ত গুরুত্বপূর্ণ যাতে স্বয়ংক্রিয়তার সুবিধা সবার মধ্যে সমানভাবে বিতরণ হয় এবং ব্যাপক চাকরি ক্ষতির কারণে সামাজিক অস্থিরতা এড়ানো যায়।
অপরাধমূলক অপব্যবহার, প্রতারণা ও নিরাপত্তা হুমকি
এআই একটি শক্তিশালী হাতিয়ার যা মহৎ উদ্দেশ্যের পাশাপাশি দুর্বৃত্ত উদ্দেশ্যেও ব্যবহার করা যেতে পারে। সাইবার অপরাধী ও অন্যান্য দুর্বৃত্ত ইতিমধ্যেই তাদের আক্রমণ বাড়াতে এআই ব্যবহার করছে।
উদাহরণস্বরূপ, এআই অত্যন্ত ব্যক্তিগতকৃত ফিশিং ইমেইল বা কণ্ঠস্বরের বার্তা (কারো কণ্ঠস্বর ক্লোন করে) তৈরি করতে পারে যাতে মানুষকে সংবেদনশীল তথ্য প্রকাশ বা অর্থ পাঠাতে প্ররোচিত করা যায়। এটি সফটওয়্যার দুর্বলতা খুঁজে বের করে স্বয়ংক্রিয় হ্যাকিং বা সনাক্তকরণ এড়াতে অভিযোজিত ম্যালওয়্যার তৈরি করতেও ব্যবহার করা যেতে পারে।
সেন্টার ফর এআই সেফটি এআই-এর দুর্বৃত্ত ব্যবহারের বিষয়ে উদ্বেগ প্রকাশ করেছে, যেমন বড় পরিসরে প্রতারণা ও সাইবার আক্রমণের জন্য এআই ব্যবহারের সম্ভাবনা। একটি যুক্তরাজ্য সরকার কমিশনকৃত রিপোর্ট স্পষ্টভাবে সতর্ক করেছে যে “দুর্বৃত্তরা বড় পরিসরে মিথ্যা তথ্য প্রচার, প্রভাব বিস্তার, প্রতারণা ও স্ক্যামের জন্য এআই ব্যবহার করতে পারে”।
এআই-এর গতি, পরিমাণ ও জটিলতা প্রচলিত প্রতিরক্ষা ব্যবস্থা অতিক্রম করতে পারে – কল্পনা করুন একদিনে হাজার হাজার এআই-তৈরি স্ক্যাম কল বা ডিপফেক ভিডিও একটি কোম্পানির নিরাপত্তা লক্ষ্য করে।
আর্থিক অপরাধের বাইরে, এআই ব্যবহার করে পরিচয় চুরি, হয়রানি বা ক্ষতিকর বিষয়বস্তু তৈরি (যেমন অনিচ্ছাকৃত ডিপফেক পর্নোগ্রাফি বা চরমপন্থী গোষ্ঠীর প্রচার) করার ঝুঁকিও রয়েছে। এআই সরঞ্জাম সহজলভ্য হওয়ায় এই ধরনের দুর্বৃত্ত কার্যকলাপের প্রতিবন্ধকতা কমে যাচ্ছে, যা এআই-সহায়তাপ্রাপ্ত অপরাধের বৃদ্ধি ঘটাতে পারে।
এ জন্য সাইবারসিকিউরিটি ও আইন প্রয়োগে নতুন পদ্ধতির প্রয়োজন, যেমন ডিপফেক বা অস্বাভাবিক আচরণ সনাক্ত করতে সক্ষম এআই সিস্টেম এবং অপরাধীদের দায়বদ্ধ করতে আপডেটকৃত আইনগত কাঠামো। মূলত, আমাদের প্রত্যাশা করতে হবে যে এআই যে কোনো ক্ষমতা প্রদান করে, তা অপরাধীদের কাছেও সমানভাবে পৌঁছাতে পারে – এবং সেই অনুযায়ী প্রস্তুতি নিতে হবে।
সামরিকীকরণ ও স্বয়ংক্রিয় অস্ত্র
সম্ভবত এআই-এর সবচেয়ে ভয়ঙ্কর ঝুঁকি যুদ্ধ ও জাতীয় নিরাপত্তার প্রেক্ষাপটে উদ্ভূত। এআই দ্রুত সামরিক সিস্টেমে সংযুক্ত হচ্ছে, যা স্বয়ংক্রিয় অস্ত্র (“হত্যাকারী রোবট”) এবং যুদ্ধক্ষেত্রে এআই-চালিত সিদ্ধান্ত গ্রহণের সম্ভাবনা বাড়াচ্ছে।
এই প্রযুক্তিগুলো মানুষের চেয়ে দ্রুত প্রতিক্রিয়া জানাতে পারে, তবে প্রাণঘাতী শক্তি ব্যবহারে মানুষের নিয়ন্ত্রণ বাদ দেওয়া বিপজ্জনক। একটি এআই-নিয়ন্ত্রিত অস্ত্র ভুল লক্ষ্য নির্বাচন করতে পারে বা অপ্রত্যাশিতভাবে সংঘাত বাড়াতে পারে। আন্তর্জাতিক পর্যবেক্ষকরা সতর্ক করেছেন যে “সামরিক ব্যবহারের জন্য এআই-এর অস্ত্রায়ন” একটি বাড়তে থাকা হুমকি।
যদি দেশগুলো বুদ্ধিমান অস্ত্রের জন্য প্রতিযোগিতা শুরু করে, তাহলে এটি একটি অস্থিতিশীল অস্ত্র প্রতিযোগিতা সৃষ্টি করতে পারে। এছাড়াও, এআই সাইবার যুদ্ধেও ব্যবহার করা যেতে পারে যাতে গুরুত্বপূর্ণ অবকাঠামোতে স্বয়ংক্রিয় আক্রমণ বা প্রচার ছড়ানো হয়, যা শান্তি ও সংঘাতের সীমানা অস্পষ্ট করে।
জাতিসংঘ উদ্বেগ প্রকাশ করেছে যে যুদ্ধক্ষেত্রে এআই উন্নয়ন যদি কয়েকটি হাতে কেন্দ্রীভূত হয়, তাহলে “মানুষের মতামত ছাড়া তাদের উপর প্রযুক্তি চাপিয়ে দেওয়া হতে পারে”, যা বৈশ্বিক নিরাপত্তা ও নৈতিকতাকে ক্ষতিগ্রস্ত করে।
স্বয়ংক্রিয় অস্ত্র ব্যবস্থা আইনি ও নৈতিক দ্বিধা সৃষ্টি করে – যদি একটি এআই ড্রোন ভুলবশত বেসামরিক লোক হত্যা করে, তাহলে কে দায়ী? এই ধরনের সিস্টেম আন্তর্জাতিক মানবিক আইনের সাথে কিভাবে সামঞ্জস্যপূর্ণ?
এই অমীমাংসিত প্রশ্নগুলো কিছু নির্দিষ্ট এআই-সক্ষম অস্ত্রের নিষেধাজ্ঞা বা কঠোর নিয়ন্ত্রণের দাবি তুলেছে। যে কোনো জীবন-মৃত্যুর সিদ্ধান্ত নিতে সক্ষম এআই-এর ওপর মানব তত্ত্বাবধান নিশ্চিত করাই সর্বোচ্চ গুরুত্ব পায়। তা না হলে, ঝুঁকি শুধু যুদ্ধক্ষেত্রে দুঃখজনক ভুল নয়, বরং যুদ্ধের মানবিক দায়িত্বের ক্ষয়ও।
স্বচ্ছতা ও জবাবদিহিতার অভাব
আজকের অধিকাংশ উন্নত এআই সিস্টেম “কালো বাক্স” হিসেবে কাজ করে – তাদের অভ্যন্তরীণ যুক্তি প্রায়শই নির্মাতাদের জন্যও অস্পষ্ট। এই স্বচ্ছতার অভাব ঝুঁকি তৈরি করে যে এআই সিদ্ধান্ত ব্যাখ্যা করা বা চ্যালেঞ্জ করা যাবে না, যা বিচার, অর্থনীতি বা স্বাস্থ্যসেবার মতো ক্ষেত্রে গুরুতর সমস্যা যেখানে ব্যাখ্যাযোগ্যতা আইনগত বা নৈতিক প্রয়োজন হতে পারে।
যদি কোনো এআই কারো ঋণ অস্বীকার করে, রোগ নির্ণয় করে বা কারাগার থেকে মুক্তির সিদ্ধান্ত দেয়, আমরা স্বাভাবিকভাবেই জানতে চাই কেন। কিছু এআই মডেলের (বিশেষ করে জটিল নিউরাল নেটওয়ার্ক) ক্ষেত্রে স্পষ্ট যুক্তি দেওয়া কঠিন।
“স্বচ্ছতার অভাব” বিশ্বাসহীনতা সৃষ্টি করে এবং “এআই সিস্টেমের ফলাফলের ভিত্তিতে সিদ্ধান্ত চ্যালেঞ্জ করার সম্ভাবনাও কমিয়ে দেয়,” ইউনেস্কো উল্লেখ করেছে, “যা ন্যায্য বিচার ও কার্যকর প্রতিকার পাওয়ার অধিকার লঙ্ঘন করতে পারে।”
অর্থাৎ, ব্যবহারকারী বা নিয়ন্ত্রক কেউই যদি বুঝতে না পারে এআই কিভাবে সিদ্ধান্ত নিচ্ছে, তাহলে ভুল বা পক্ষপাতের জন্য কাউকে দায়ী করা প্রায় অসম্ভব হয়ে পড়ে।
এই জবাবদিহিতার ঘাটতি একটি বড় ঝুঁকি: কোম্পানিগুলো “অ্যালগরিদম” কে দোষারোপ করে দায় এড়াতে পারে, আর প্রভাবিত ব্যক্তিরা কোনো প্রতিকার পেতে পারে না। এই সমস্যার মোকাবেলায় বিশেষজ্ঞরা ব্যাখ্যাযোগ্য এআই প্রযুক্তি, কঠোর নিরীক্ষণ এবং নিয়ন্ত্রক বাধ্যবাধকতার পক্ষে, যাতে এআই সিদ্ধান্ত মানব কর্তৃপক্ষের কাছে ট্রেসযোগ্য হয়।
বিশ্বব্যাপী নৈতিক নির্দেশিকা জোর দিয়ে বলে যে এআই সিস্টেমের আচরণের জন্য “সদা নৈতিক ও আইনগত দায়িত্ব একজন ব্যক্তি বা প্রতিষ্ঠানের কাছে আরোপ করা সম্ভব হওয়া উচিত।” মানবরা সর্বশেষ দায়বদ্ধ থাকতে হবে, এবং সংবেদনশীল বিষয়ে মানব বিচারকে প্রতিস্থাপন না করে এআইকে সহায়ক হিসেবে ব্যবহার করা উচিত। অন্যথায়, আমরা এমন একটি বিশ্ব তৈরি করতে পারি যেখানে গুরুত্বপূর্ণ সিদ্ধান্ত অজানা যন্ত্র দ্বারা নেওয়া হয়, যা অন্যায়ের পথপ্রদর্শক।
ক্ষমতার একাগ্রতা ও বৈষম্য
এআই বিপ্লব বিশ্বব্যাপী সমানভাবে ঘটছে না – কিছু বড় কর্পোরেশন ও দেশ উন্নত এআই উন্নয়নে আধিপত্য বিস্তার করছে, যা নিজেই ঝুঁকি বহন করে।
সর্বাধুনিক এআই মডেলগুলো বিশাল ডেটা, প্রতিভা ও কম্পিউটিং সম্পদ দাবি করে যা বর্তমানে শুধুমাত্র প্রযুক্তি জায়ান্ট ও সু-অর্থায়িত সরকারদের কাছে রয়েছে। বিশ্ব অর্থনৈতিক ফোরাম অনুযায়ী, এটি “একটি অত্যন্ত কেন্দ্রীভূত, একক, বিশ্বব্যাপী সংযুক্ত সরবরাহ শৃঙ্খল যা কয়েকটি কোম্পানি ও দেশকে সুবিধা দেয়”।
এআই ক্ষমতার এই একাগ্রতা এআই প্রযুক্তির উপর মনোপলিস্টিক নিয়ন্ত্রণ সৃষ্টি করতে পারে, যা প্রতিযোগিতা ও ভোক্তা পছন্দ সীমিত করে। এটি সেই কয়েকটি কোম্পানি বা দেশের অগ্রাধিকারকে এমনভাবে প্রভাবিত করতে পারে যা সাধারণ জনগণের বৃহত্তর স্বার্থ বিবেচনা করে না।
জাতিসংঘ উল্লেখ করেছে যে “যখন উন্নয়ন শক্তিশালী কয়েকজনের হাতে সীমাবদ্ধ থাকে, তখন প্রযুক্তি ব্যবহার সম্পর্কে মানুষের মতামত ছাড়া চাপিয়ে দেওয়ার ঝুঁকি থাকে”।
এই ভারসাম্যহীনতা বৈশ্বিক বৈষম্য বাড়াতে পারে: ধনী দেশ ও প্রতিষ্ঠান এআই ব্যবহার করে এগিয়ে যাবে, আর দরিদ্র সম্প্রদায় সর্বশেষ প্রযুক্তি থেকে বঞ্চিত হয়ে চাকরি হারাবে। এছাড়াও, কেন্দ্রীভূত এআই শিল্প উদ্ভাবনকে বাধাগ্রস্ত করতে পারে (যদি নতুনরা বড়দের সম্পদের সঙ্গে প্রতিযোগিতা করতে না পারে) এবং নিরাপত্তা ঝুঁকি সৃষ্টি করতে পারে (যদি গুরুত্বপূর্ণ এআই অবকাঠামো কয়েকটি সংস্থার নিয়ন্ত্রণে থাকে, যা একক ব্যর্থতা বা মনিপুলেশনের পয়েন্ট হয়ে দাঁড়ায়)।
এই ঝুঁকি মোকাবেলায় আন্তর্জাতিক সহযোগিতা ও নতুন নিয়মের প্রয়োজন হতে পারে যাতে এআই উন্নয়ন গণতান্ত্রিক হয় – যেমন, উন্মুক্ত গবেষণাকে সমর্থন, ডেটা ও কম্পিউটিংয়ের ন্যায্য প্রবেশাধিকার নিশ্চিতকরণ, এবং ইউরোপীয় ইউনিয়নের প্রস্তাবিত এআই আইন মতো নীতিমালা তৈরি যা “এআই গেটকিপারদের” অপব্যবহার রোধ করে। একটি অন্তর্ভুক্তিমূলক এআই পরিবেশ নিশ্চিত করবে যে এআই-এর সুবিধা বিশ্বব্যাপী ভাগ হয়, প্রযুক্তি সম্পদের বৈষম্য বাড়ানোর পরিবর্তে।
এআই-এর পরিবেশগত প্রভাব
এআই-এর ঝুঁকি নিয়ে আলোচনা করার সময় প্রায়ই এর পরিবেশগত প্রভাব উপেক্ষিত হয়। বিশেষ করে বড় মেশিন লার্নিং মডেল প্রশিক্ষণ প্রচুর বিদ্যুৎ ও কম্পিউটিং শক্তি খরচ করে।
হাজার হাজার বিদ্যুৎ-খরচী সার্ভার নিয়ে ডেটা সেন্টারগুলো এআই সিস্টেমের শেখার জন্য ডেটার প্রবাহ প্রক্রিয়াকরণ করে। এর ফলে এআই পরোক্ষভাবে কার্বন নির্গমন ও জলবায়ু পরিবর্তনে অবদান রাখতে পারে।
একটি সাম্প্রতিক জাতিসংঘ সংস্থার প্রতিবেদন দেখিয়েছে যে চারটি শীর্ষস্থানীয় এআই-কেন্দ্রিক প্রযুক্তি কোম্পানির পরোক্ষ কার্বন নির্গমন ২০২০ থেকে ২০২৩ সালের মধ্যে গড়ে ১৫০% বৃদ্ধি পেয়েছে, যা মূলত এআই ডেটা সেন্টারের শক্তি চাহিদার কারণে।
এআই-তে বিনিয়োগ বাড়ার সাথে সাথে মডেল চালানোর নির্গমন দ্রুত বাড়বে – প্রতিবেদনটি অনুমান করেছে যে শীর্ষ এআই সিস্টেমগুলো মিলিতভাবে বছরে ১০০ মিলিয়ন টনেরও বেশি CO₂ নির্গত করতে পারে, যা শক্তি অবকাঠামোর উপর বড় চাপ সৃষ্টি করবে।
তুলনামূলকভাবে, এআই চালিত ডেটা সেন্টারগুলো বিদ্যুৎ ব্যবহার বাড়াচ্ছে “মোট বিদ্যুৎ ব্যবহারের বৃদ্ধির চেয়ে চার গুণ দ্রুত”।
কার্বন নির্গমনের পাশাপাশি, এআই ঠান্ডা রাখার জন্য প্রচুর পানি ব্যবহার করে এবং হার্ডওয়্যার দ্রুত আপগ্রেড হওয়ার কারণে ইলেকট্রনিক বর্জ্যও তৈরি করে। নিয়ন্ত্রণহীন হলে, এআই-এর পরিবেশগত প্রভাব বৈশ্বিক টেকসই উন্নয়ন প্রচেষ্টাকে ক্ষতিগ্রস্ত করতে পারে।
এই ঝুঁকি মোকাবেলায় এআইকে অধিক শক্তি-দক্ষ করে তোলা এবং পরিচ্ছন্ন শক্তির উৎস ব্যবহার করা জরুরি। গবেষকরা শক্তি ব্যবহার কমানোর জন্য সবুজ এআই প্রযুক্তি উন্নয়ন করছেন, এবং কিছু কোম্পানি এআই-এর কার্বন খরচ ক্ষতিপূরণে প্রতিশ্রুতিবদ্ধ। তবুও, এআই-এর দ্রুত প্রসার পরিবেশগত মূল্য চুকানোর ঝুঁকি বহন করে। প্রযুক্তিগত অগ্রগতি ও পরিবেশগত দায়িত্বের মধ্যে সঠিক ভারসাম্য রক্ষা করা সমাজের জন্য একটি বড় চ্যালেঞ্জ।
অস্তিত্বগত ও দীর্ঘমেয়াদী ঝুঁকি
তাৎক্ষণিক ঝুঁকির বাইরে, কিছু বিশেষজ্ঞ এআই থেকে আরও অনুমানভিত্তিক, দীর্ঘমেয়াদী ঝুঁকি সম্পর্কে সতর্ক করেছেন – যেমন এমন একটি উন্নত এআই-এর সম্ভাবনা যা মানুষের নিয়ন্ত্রণের বাইরে চলে যেতে পারে। আজকের এআই সিস্টেমগুলো সীমিত সক্ষমতার হলেও, গবেষকরা আরও সাধারণ এআই তৈরির জন্য কাজ করছেন যা অনেক ক্ষেত্রে মানুষের চেয়ে ভালো পারফর্ম করতে পারে।
এটি জটিল প্রশ্ন তোলে: যদি একটি এআই অত্যন্ত বুদ্ধিমান বা স্বায়ত্তশাসিত হয়ে ওঠে, তবে কি এটি মানবজাতির অস্তিত্বের জন্য হুমকি সৃষ্টি করতে পারে? যদিও এটি বিজ্ঞান কথাসাহিত্যের মতো শোনায়, প্রযুক্তি সম্প্রদায়ের বিশিষ্ট ব্যক্তিরা “দুর্নীতিগ্রস্ত এআই” পরিস্থিতি নিয়ে উদ্বেগ প্রকাশ করেছেন, এবং সরকারগুলো এই আলোচনাকে গুরুত্ব দিচ্ছে।
২০২৩ সালে যুক্তরাজ্য একটি বিশ্বব্যাপী এআই নিরাপত্তা শীর্ষ সম্মেলন আয়োজন করে সীমান্তবর্তী এআই ঝুঁকি নিয়ে আলোচনা করার জন্য। বৈজ্ঞানিক মতামত একরকম নয় – কেউ মনে করেন সুপার-ইন্টেলিজেন্ট এআই দশক দূরে বা মানব মূল্যবোধের সাথে সামঞ্জস্য রেখে রাখা সম্ভব, আবার কেউ মনে করেন মারাত্মক ফলাফলের সম্ভাবনা অল্প হলেও শূন্য নয়।
সাম্প্রতিক আন্তর্জাতিক এআই নিরাপত্তা প্রতিবেদনে বলা হয়েছে যে “বিশেষজ্ঞদের মধ্যে এআই নিয়ন্ত্রণ হারানোর ঝুঁকি নিয়ে মতভেদ রয়েছে যা মারাত্মক ফলাফল ডেকে আনতে পারে।”
মূলত, স্বীকার করা হয়েছে যে এআই থেকে অস্তিত্বগত ঝুঁকি, যদিও দূরবর্তী, সম্পূর্ণরূপে অস্বীকার করা যায় না। এমন একটি পরিস্থিতি হতে পারে যেখানে একটি এআই তার লক্ষ্য পূরণে মানুষের কল্যাণের ক্ষতি করে (সাধারণ উদাহরণ হলো এমন একটি এআই যা ভুল প্রোগ্রামিংয়ের কারণে বড় পরিসরে ক্ষতিকর কাজ করে কারণ তার কাছে সাধারণ বোধ বা নৈতিক সীমাবদ্ধতা নেই)।
আজকের কোনো এআই এরকম ক্ষমতা রাখে না, তবে এআই উন্নয়নের গতি দ্রুত ও অপ্রত্যাশিত, যা নিজেই একটি ঝুঁকি। দীর্ঘমেয়াদী ঝুঁকি মোকাবেলায় এআই সামঞ্জস্য গবেষণায় বিনিয়োগ, উচ্চ ঝুঁকিপূর্ণ এআই গবেষণার জন্য আন্তর্জাতিক চুক্তি (পারমাণবিক বা জীববৈজ্ঞানিক অস্ত্রের মতো), এবং এআই সিস্টেমের সক্ষমতা বাড়ার সাথে সাথে মানব তত্ত্বাবধান বজায় রাখা জরুরি।
এআই-এর ভবিষ্যত বিশাল সম্ভাবনা নিয়ে আসে, তবে অনিশ্চয়তাও – এবং সতর্কতা আমাদের দীর্ঘমেয়াদী পরিকল্পনায় কম সম্ভাবনাময়, উচ্চ প্রভাবশালী ঝুঁকিগুলো বিবেচনা করতে বাধ্য করে।
>>> আরও জানতে ক্লিক করুন: ব্যক্তি ও ব্যবসার জন্য কৃত্রিম বুদ্ধিমত্তার (AI) সুবিধাসমূহ
এআই প্রায়শই একটি শক্তিশালী ইঞ্জিনের সঙ্গে তুলনা করা হয় যা মানবজাতিকে এগিয়ে নিয়ে যেতে পারে – তবে ব্রেক ও স্টিয়ারিং ছাড়া সেই ইঞ্জিন পথভ্রষ্ট হতে পারে। আমরা দেখেছি, এআই ব্যবহারের ঝুঁকি বহুমুখী: পক্ষপাতমূলক অ্যালগরিদম, ভুয়া সংবাদ, গোপনীয়তা লঙ্ঘন, চাকরি বিঘ্নের মতো তাৎক্ষণিক সমস্যা থেকে শুরু করে নিরাপত্তা হুমকি, “কালো বাক্স” সিদ্ধান্ত গ্রহণ, বড় প্রযুক্তি মনোপলি, পরিবেশগত চাপ এবং এমনকি সুপার-ইন্টেলিজেন্ট এআই নিয়ন্ত্রণ হারানোর দূরবর্তী আশঙ্কা পর্যন্ত।
এই ঝুঁকিগুলো মানে এআই উন্নয়ন বন্ধ করা উচিত নয়; বরং এগুলো দায়িত্বশীল এআই শাসন ও নৈতিক অনুশীলনের জরুরি প্রয়োজনীয়তা তুলে ধরে।
সরকার, আন্তর্জাতিক সংস্থা, শিল্প নেতৃবৃন্দ ও গবেষকরা ক্রমবর্ধমানভাবে এই উদ্বেগগুলো মোকাবেলায় সহযোগিতা করছে – যেমন, মার্কিন যুক্তরাষ্ট্রের NIST এআই ঝুঁকি ব্যবস্থাপনা কাঠামো (এআই বিশ্বাসযোগ্যতা উন্নত করার জন্য), ইউনেস্কোর বিশ্বব্যাপী এআই নৈতিকতা সুপারিশ, এবং ইউরোপীয় ইউনিয়নের এআই আইন।
এসব প্রচেষ্টা লক্ষ্য করে এআই-এর সুবিধা সর্বাধিক করা এবং এর নেতিবাচক দিক কমানো, নিশ্চিত করা যে এআই মানবজাতির সেবা করে, বিপরীতে নয়। শেষ পর্যন্ত, এআই ব্যবহারের ঝুঁকি বোঝা তাদের পরিচালনার প্রথম ধাপ। সচেতন ও সক্রিয় থেকে আমরা এই রূপান্তরমূলক প্রযুক্তিকে সুরক্ষিত, ন্যায়সঙ্গত ও উপকারী পথে পরিচালিত করতে পারি।