مصنوعی ذہانت (AI) اب ہر چیز میں شامل ہو چکی ہے، چاہے وہ اسمارٹ فون اسسٹنٹس ہوں، سوشل میڈیا فیڈز، صحت کی دیکھ بھال یا نقل و حمل۔ یہ ٹیکنالوجیز بے مثال فوائد لاتی ہیں، لیکن ان کے ساتھ نمایاں خطرات اور چیلنجز بھی وابستہ ہیں۔

ماہرین اور عالمی ادارے خبردار کرتے ہیں کہ مناسب اخلاقی حدود کے بغیر، AI حقیقی دنیا کے تعصبات اور امتیاز کو دہرا سکتی ہے، ماحولیاتی نقصان میں اضافہ کر سکتی ہے، انسانی حقوق کو خطرے میں ڈال سکتی ہے، اور موجودہ عدم مساوات کو بڑھا سکتی ہے۔

اس مضمون میں، آئیے INVIAI کے ساتھ AI کے استعمال کے خطرات کو تمام شعبوں اور اقسام میں دریافت کریں – چاہے وہ چیٹ بوٹس ہوں، الگورتھمز ہوں یا روبوٹس – جو سرکاری اور بین الاقوامی ذرائع سے حاصل شدہ معلومات پر مبنی ہیں۔

AI نظاموں میں تعصب اور امتیاز

AI کا ایک بڑا خطرہ تعصب اور غیر منصفانہ امتیاز کا پختہ ہونا ہے۔ AI ماڈلز ایسے ڈیٹا سے سیکھتے ہیں جو تاریخی تعصبات یا عدم مساوات کی عکاسی کر سکتا ہے؛ نتیجتاً، AI نظام نسل، جنس یا دیگر خصوصیات کی بنیاد پر لوگوں کے ساتھ مختلف سلوک کر سکتا ہے جو ناانصافی کو بڑھاتا ہے۔

مثال کے طور پر، “خراب کام کرنے والی عمومی مقصد کی AI نسل، جنس، ثقافت، عمر، اور معذوری جیسے محفوظ کردہ خصوصیات کے حوالے سے تعصبی فیصلوں کے ذریعے نقصان پہنچا سکتی ہے،” ایک بین الاقوامی AI سیفٹی رپورٹ کے مطابق۔

بھرتی، قرضہ دینے، یا پولیسنگ میں استعمال ہونے والے تعصبی الگورتھمز پہلے ہی غیر مساوی نتائج کا باعث بنے ہیں جو مخصوص گروہوں کو غیر منصفانہ طور پر نقصان پہنچاتے ہیں۔ UNESCO جیسے عالمی ادارے خبردار کرتے ہیں کہ انصاف کے اقدامات کے بغیر، AI خطرہ رکھتی ہے کہ “حقیقی دنیا کے تعصبات اور امتیاز کو دہرا کر تقسیم کو بڑھائے اور بنیادی انسانی حقوق اور آزادیوں کو خطرے میں ڈالے”۔ AI نظاموں کو متنوع، نمائندہ ڈیٹا پر تربیت دینا اور تعصب کے لیے آڈٹ کرنا ضروری ہے تاکہ خودکار امتیاز سے بچا جا سکے۔

AI نظاموں میں تعصب اور امتیاز

غلط معلومات اور ڈیپ فیک کے خطرات

AI کی صلاحیت ہے کہ وہ انتہائی حقیقت پسندانہ متن، تصاویر، اور ویڈیوز تیار کر سکتی ہے، جس سے غلط معلومات کے سیلاب کا خدشہ پیدا ہو گیا ہے۔ جنریٹو AI قائل کرنے والے جعلی خبری مضامین، جعلی تصاویر، یا ڈیپ فیک ویڈیوز بنا سکتی ہے جو حقیقت سے الگ کرنا مشکل ہوتے ہیں۔

ورلڈ اکنامک فورم کی گلوبل رسکس رپورٹ 2024 میں “چالاکی سے تیار کردہ اور جھوٹی معلومات” کو سب سے شدید قلیل مدتی عالمی خطرہ قرار دیا گیا ہے، اور بتایا گیا ہے کہ AI “چالاکی سے تیار کردہ اور مسخ شدہ معلومات کو بڑھاوا دے رہی ہے جو معاشروں کو غیر مستحکم کر سکتی ہے۔”

درحقیقت، AI سے پیدا ہونے والی غلط معلومات اور گمراہ کن معلومات “جمہوری عمل کے لیے سب سے بڑے چیلنجز میں سے ایک” ہیں – خاص طور پر جب اربوں لوگ آنے والے انتخابات میں ووٹ ڈالنے جا رہے ہوں۔ مصنوعی میڈیا جیسے ڈیپ فیک ویڈیوز اور AI سے نقل کی گئی آوازیں پروپیگنڈا پھیلانے، عوامی شخصیات کی نقل کرنے، یا فراڈ کرنے کے لیے استعمال ہو سکتی ہیں۔

حکام خبردار کرتے ہیں کہ خراب ارادے رکھنے والے AI کو بڑے پیمانے پر غلط معلومات کی مہمات کے لیے استعمال کر سکتے ہیں، جس سے سوشل نیٹ ورکس پر جعلی مواد کی بھرمار اور افراتفری پھیلانا آسان ہو جاتا ہے۔ خطرہ یہ ہے کہ ایک ایسا معلوماتی ماحول بن جائے جہاں شہری جو دیکھتے یا سنتے ہیں اس پر اعتماد نہ کر سکیں، جس سے عوامی مکالمہ اور جمہوریت متاثر ہو۔

AI میں غلط معلومات اور ڈیپ فیک کے خطرات

رازداری کے خطرات اور وسیع نگرانی

AI کے وسیع استعمال سے سنگین رازداری کے خدشات پیدا ہوتے ہیں۔ AI نظاموں کو مؤثر طریقے سے کام کرنے کے لیے اکثر بہت زیادہ ذاتی ڈیٹا کی ضرورت ہوتی ہے – ہمارے چہروں اور آوازوں سے لے کر خریداری کی عادات اور مقام تک۔ بغیر مضبوط حفاظتی اقدامات کے، یہ ڈیٹا غلط استعمال یا استحصال کا شکار ہو سکتا ہے۔

مثال کے طور پر، چہرے کی شناخت اور پیش گوئی کرنے والے الگورتھمز وسیع پیمانے پر نگرانی کو ممکن بنا سکتے ہیں، افراد کی ہر حرکت کو بغیر اجازت ٹریک کر سکتے ہیں یا ان کے رویے کی درجہ بندی کر سکتے ہیں۔ UNESCO کی عالمی AI اخلاقیات کی سفارش واضح طور پر کہتی ہے کہ “AI نظاموں کو سماجی اسکورنگ یا وسیع نگرانی کے لیے استعمال نہیں کیا جانا چاہیے۔” ایسے استعمال کو وسیع پیمانے پر ناقابل قبول خطرات سمجھا جاتا ہے۔

مزید برآں، AI کی مدد سے ذاتی ڈیٹا کا تجزیہ ہماری زندگیوں کے گہرے راز ظاہر کر سکتا ہے، جیسے صحت کی حالت یا سیاسی عقائد، جو رازداری کے حق کے لیے خطرہ ہے۔ ڈیٹا پروٹیکشن ایجنسیاں زور دیتی ہیں کہ رازداری “انسانی وقار، خودمختاری اور خود ارادیت کے تحفظ کے لیے ایک لازمی حق ہے” جس کا AI نظام کی زندگی کے ہر مرحلے میں احترام کیا جانا چاہیے۔

اگر AI کی ترقی رازداری کے قوانین سے آگے نکل گئی، تو افراد اپنے ذاتی معلومات پر کنٹرول کھو سکتے ہیں۔ معاشرے کو یہ یقینی بنانا ہوگا کہ مضبوط ڈیٹا گورننس، رضامندی کے طریقہ کار، اور رازداری کو محفوظ رکھنے والی تکنیکیں موجود ہوں تاکہ AI ٹیکنالوجیز غیر محدود نگرانی کے آلات نہ بن جائیں۔

رازداری کے خطرات اور وسیع نگرانی

حفاظتی ناکامیاں اور غیر ارادی نقصان

اگرچہ AI فیصلے اور جسمانی کام انتہائی تیزی سے خودکار کر سکتی ہے، لیکن یہ غیر متوقع طریقوں سے ناکام بھی ہو سکتی ہے، جس سے حقیقی دنیا میں نقصان ہو سکتا ہے۔ ہم AI پر زیادہ سے زیادہ حفاظتی ذمہ داریاں سونپ رہے ہیں – جیسے گاڑیاں چلانا، مریضوں کی تشخیص کرنا، یا بجلی کے گرڈز کا انتظام کرنا – لیکن یہ نظام ناقابلِ خطا نہیں ہیں۔

خرابی، ناقص تربیتی ڈیٹا، یا غیر متوقع حالات AI کو خطرناک غلطیاں کرنے پر مجبور کر سکتے ہیں۔ خودکار گاڑی کا AI پیدل چلنے والے کو غلط شناخت کر سکتا ہے، یا طبی AI غلط علاج تجویز کر سکتا ہے، جس کے نتائج جان لیوا ہو سکتے ہیں۔

بین الاقوامی رہنما خطوط اس بات پر زور دیتے ہیں کہ AI سے ہونے والے ناخواہ نقصان اور حفاظتی خطرات کی پیش بینی اور روک تھام ضروری ہے: “ناخواہ نقصان (حفاظتی خطرات) اور حملے کے لیے کمزوریاں (سیکیورٹی خطرات) AI نظاموں کی زندگی کے ہر مرحلے میں روکی اور حل کی جانی چاہئیں تاکہ انسانی، ماحولیاتی اور ماحولیاتی نظام کی حفاظت یقینی بنائی جا سکے۔”

یعنی، AI نظاموں کو سخت جانچ، نگرانی، اور حفاظتی تدابیر کے ساتھ بنایا جانا چاہیے تاکہ خرابی کے امکانات کم سے کم ہوں۔ AI پر ضرورت سے زیادہ انحصار بھی خطرناک ہو سکتا ہے – اگر انسان خودکار فیصلوں پر اندھا اعتماد کر لیں تو جب کچھ غلط ہو تو بروقت مداخلت نہیں کر پائیں گے۔

لہٰذا، انسانی نگرانی کو یقینی بنانا بہت ضروری ہے۔ اہم شعبوں میں (جیسے صحت کی دیکھ بھال یا نقل و حمل) آخری فیصلے انسانی فیصلے کے تابع ہونے چاہئیں، اور جیسا کہ UNESCO کہتا ہے، “زندگی اور موت کے فیصلے AI نظاموں کو نہیں سونپنے چاہئیں۔” AI کی حفاظت اور اعتمادیت کو برقرار رکھنا ایک مسلسل چیلنج ہے، جس کے لیے AI ڈویلپرز کی ذمہ داری اور محتاط ڈیزائن کی ضرورت ہے۔

AI میں حفاظتی ناکامیاں اور غیر ارادی نقصان

ملازمتوں کا خاتمہ اور معاشی خلل

AI کا معیشت پر تبدیلی لانے والا اثر دو دھاری تلوار کی مانند ہے۔ ایک طرف، AI پیداواریت کو بڑھا سکتی ہے اور بالکل نئی صنعتیں قائم کر سکتی ہے؛ دوسری طرف، یہ لاکھوں مزدوروں کو خودکاری کے ذریعے بے روزگار کرنے کا خطرہ بھی رکھتی ہے۔

بہت سی ملازمتیں – خاص طور پر وہ جو معمول کے، دہرائے جانے والے کام یا آسانی سے تجزیہ کیے جانے والے ڈیٹا پر مبنی ہیں – AI الگورتھمز اور روبوٹس کے ذریعے سنبھالی جا سکتی ہیں۔ عالمی پیش گوئیاں سنجیدہ ہیں: مثال کے طور پر، ورلڈ اکنامک فورم کا اندازہ ہے کہ “2030 تک 92 ملین ملازمتیں AI اور متعلقہ ٹیکنالوجیز کی وجہ سے ختم ہو سکتی ہیں۔”

اگرچہ معیشت نئی ملازمتیں بھی پیدا کر سکتی ہے (ممکنہ طور پر طویل مدت میں جو ملازمتیں ختم ہوں اس سے زیادہ)، تبدیلی بہت سے لوگوں کے لیے تکلیف دہ ہوگی۔ نئی ملازمتیں اکثر مختلف، زیادہ مہارت طلب ہوتی ہیں یا مخصوص ٹیکنالوجی مراکز میں مرکوز ہوتی ہیں، جس کا مطلب ہے کہ بہت سے بے روزگار افراد کو نئی جگہ تلاش کرنے میں مشکلات پیش آ سکتی ہیں۔

یہ مہارتوں کا فرق جو مزدوروں کے پاس ہے اور جو نئی AI سے چلنے والی ملازمتوں میں درکار ہے بے روزگاری اور عدم مساوات کو بڑھا سکتا ہے اگر اس کا حل نہ نکالا گیا۔ پالیسی ساز اور محققین خبردار کرتے ہیں کہ تیز AI ترقی “مزدور مارکیٹ میں خلل اور معاشی طاقت کی عدم مساوات” پیدا کر سکتی ہے۔

کچھ گروہ زیادہ متاثر ہو سکتے ہیں – مثال کے طور پر، کچھ مطالعات سے پتہ چلتا ہے کہ خواتین یا ترقی پذیر ممالک کے کارکنوں کی بڑی تعداد خودکاری کے خطرے میں ہے۔ بغیر پیشگی اقدامات (جیسے دوبارہ تربیت کے پروگرام، AI مہارتوں کی تعلیم، اور سماجی حفاظتی جال) کے، AI معاشرتی و اقتصادی فرق کو بڑھا سکتی ہے، ایک ایسی معیشت بن سکتی ہے جہاں ٹیکنالوجی کے مالک زیادہ فائدہ اٹھائیں۔

AI کے اثرات کے لیے ورک فورس کی تیاری بہت ضروری ہے تاکہ خودکاری کے فوائد وسیع پیمانے پر تقسیم ہوں اور وسیع پیمانے پر ملازمتوں کے خاتمے سے سماجی انتشار سے بچا جا سکے۔

AI میں ملازمتوں کا خاتمہ اور معاشی خلل

جرم میں غلط استعمال، فراڈ، اور سیکیورٹی کے خطرات

AI ایک طاقتور آلہ ہے جو نیک نیتی کے ساتھ جتنا استعمال ہو سکتا ہے، اتنا ہی آسانی سے برے مقاصد کے لیے بھی استعمال ہو سکتا ہے۔ سائبر کرمنلز اور دیگر خراب ارادے رکھنے والے افراد پہلے ہی AI کا استعمال اپنے حملوں کو بڑھانے کے لیے کر رہے ہیں۔

مثال کے طور پر، AI انتہائی ذاتی نوعیت کے فشنگ ای میلز یا وائس میسجز (کسی کی آواز کی نقل کر کے) بنا سکتی ہے تاکہ لوگوں کو حساس معلومات دینے یا پیسے بھیجنے پر مجبور کیا جا سکے۔ یہ ہیکنگ کو خودکار بنانے، سافٹ ویئر کی کمزوریوں کو بڑے پیمانے پر تلاش کرنے، یا ایسے میلویئر تیار کرنے کے لیے بھی استعمال ہو سکتی ہے جو شناخت سے بچنے کے لیے خود کو ڈھال لیتا ہے۔

Center for AI Safety نے AI کے بد نیتی سے استعمال کو ایک اہم مسئلہ قرار دیا ہے، اور ایسے منظرنامے بیان کیے ہیں جہاں AI نظام مجرموں کے ذریعے بڑے پیمانے پر فراڈ اور سائبر حملے کرنے کے لیے استعمال ہوتے ہیں۔ درحقیقت، برطانیہ کی حکومت کی ایک رپورٹ نے واضح طور پر خبردار کیا ہے کہ “خراب ارادے رکھنے والے AI کو بڑے پیمانے پر غلط معلومات، اثر و رسوخ کی مہمات، فراڈ، اور دھوکہ دہی کے لیے استعمال کر سکتے ہیں۔”

AI کی رفتار، پیمانے، اور مہارت روایتی دفاعی نظاموں کو مغلوب کر سکتی ہے – تصور کریں کہ ایک دن میں ہزاروں AI سے تیار کردہ دھوکہ دہی کالز یا ڈیپ فیک ویڈیوز کسی کمپنی کی سیکیورٹی کو نشانہ بنا رہی ہوں۔

مالی جرائم کے علاوہ، AI کا استعمال شناخت کی چوری، ہراسانی، یا نقصان دہ مواد (جیسے بغیر رضامندی کے ڈیپ فیک فحش مواد یا انتہا پسند گروہوں کے لیے پروپیگنڈا) بنانے کے لیے بھی ہو سکتا ہے۔ جیسے جیسے AI کے آلات زیادہ دستیاب ہوتے جا رہے ہیں، ایسے خراب کاموں کے لیے رکاوٹیں کم ہو رہی ہیں، جس سے AI سے متعلق جرائم میں اضافہ ہو سکتا ہے۔

اس کے لیے سائبر سیکیورٹی اور قانون نافذ کرنے والے اداروں کو نئے طریقے اپنانے ہوں گے، جیسے AI نظام جو ڈیپ فیک یا غیر معمولی رویے کا پتہ لگا سکیں، اور قانونی فریم ورک کو اپ ڈیٹ کرنا تاکہ مجرموں کو جوابدہ بنایا جا سکے۔ بنیادی طور پر، ہمیں یہ توقع رکھنی چاہیے کہ AI کی جو صلاحیتیں فائدہ اٹھانے والوں کو ملتی ہیں، وہی صلاحیتیں مجرموں کو بھی مل سکتی ہیں – اور اسی کے مطابق تیاری کرنی چاہیے۔

AI میں جرم کا غلط استعمال، فراڈ، اور سیکیورٹی کے خطرات

فوجی کاری اور خود مختار ہتھیار

شاید AI کا سب سے خوفناک خطرہ جنگ اور قومی سلامتی کے تناظر میں سامنے آتا ہے۔ AI تیزی سے فوجی نظاموں میں شامل ہو رہی ہے، جس سے خود مختار ہتھیار (“قاتل روبوٹس”) اور جنگ میں AI سے چلنے والے فیصلوں کا امکان بڑھ رہا ہے۔

یہ ٹیکنالوجیز انسان سے تیز ردعمل دے سکتی ہیں، لیکن جان لیوا طاقت کے استعمال سے انسانی کنٹرول ہٹانا خطرناک ہے۔ خطرہ ہے کہ AI سے چلنے والا ہتھیار غلط ہدف منتخب کر سکتا ہے یا غیر متوقع طریقوں سے تنازعات کو بڑھا سکتا ہے۔ بین الاقوامی مبصرین خبردار کرتے ہیں کہ “فوجی استعمال کے لیے AI کا ہتھیار بنانا” ایک بڑھتا ہوا خطرہ ہے۔

اگر ممالک اپنی ہتھیاروں کو ذہین ہتھیاروں سے لیس کرنے کی دوڑ میں لگ جائیں، تو یہ ایک غیر مستحکم اسلحہ دوڑ کو جنم دے سکتا ہے۔ مزید برآں، AI کو سائبر جنگ میں بھی استعمال کیا جا سکتا ہے تاکہ خودکار طریقے سے اہم انفراسٹرکچر پر حملہ کیا جائے یا پروپیگنڈا پھیلایا جائے، جس سے امن اور تنازعہ کے درمیان فرق دھندلا ہو جائے۔

اقوام متحدہ نے اس بات پر تشویش ظاہر کی ہے کہ اگر AI کی ترقی چند ہاتھوں میں مرکوز ہو جائے تو “لوگوں کی رائے کے بغیر ان پر AI کا استعمال مسلط کیا جا سکتا ہے،” جو عالمی سلامتی اور اخلاقیات کو نقصان پہنچا سکتا ہے۔

خود مختار ہتھیاروں کے نظام قانونی اور اخلاقی مسائل بھی پیدا کرتے ہیں – اگر AI ڈرون غلطی سے شہریوں کو مار دے تو ذمہ دار کون ہوگا؟ ایسے نظام بین الاقوامی انسانی قوانین کی تعمیل کیسے کریں گے؟

ان غیر حل شدہ سوالات کی وجہ سے کچھ AI سے چلنے والے ہتھیاروں پر پابندی یا سخت ضابطہ کاری کی مانگ کی گئی ہے۔ کسی بھی AI پر انسانی نگرانی کو یقینی بنانا بہت ضروری سمجھا جاتا ہے جو زندگی اور موت کے فیصلے کر سکتا ہے۔ اس کے بغیر، خطرہ صرف میدان جنگ میں المناک غلطیاں نہیں بلکہ جنگ میں انسانی ذمہ داری کا خاتمہ بھی ہے۔

AI میں فوجی کاری اور خود مختار ہتھیار

شفافیت اور جوابدہی کی کمی

آج کے زیادہ تر جدید AI نظام “بلیک باکس” کی طرح کام کرتے ہیں – ان کی اندرونی منطق اکثر ان کے خالقوں کے لیے بھی غیر واضح ہوتی ہے۔ اس شفافیت کی کمی کا مطلب ہے کہ AI کے فیصلے کی وضاحت یا چیلنج کرنا مشکل ہوتا ہے، جو انصاف، مالیات، یا صحت کی دیکھ بھال جیسے شعبوں میں جہاں وضاحت قانونی یا اخلاقی ضرورت ہے، ایک سنگین مسئلہ ہے۔

اگر AI کسی کو قرضہ دینے سے انکار کر دے، بیماری کی تشخیص کرے، یا قید سے رہائی کا فیصلہ کرے، تو ہم فطری طور پر جاننا چاہتے ہیں کیوں۔ کچھ AI ماڈلز (خاص طور پر پیچیدہ نیورل نیٹ ورکس) کے لیے واضح وجہ فراہم کرنا مشکل ہوتا ہے۔

“شفافیت کی کمی” اعتماد کو کمزور کر سکتی ہے اور “AI نظاموں کے نتائج کی بنیاد پر کیے گئے فیصلوں کو مؤثر طریقے سے چیلنج کرنے کے امکان کو بھی کم کر سکتی ہے،” UNESCO کے مطابق، “اور اس طرح منصفانہ مقدمے اور مؤثر علاج کے حق کی خلاف ورزی کر سکتی ہے۔”

یعنی، اگر نہ صارفین اور نہ ہی ضابطہ کار سمجھ سکیں کہ AI کیسے فیصلے کر رہا ہے، تو غلطیوں یا تعصبات کے لیے کسی کو جوابدہ ٹھہرانا تقریباً ناممکن ہو جاتا ہے۔

یہ جوابدہی کا خلا ایک بڑا خطرہ ہے: کمپنیاں “الگورتھم” کو الزام دے کر ذمہ داری سے بچ سکتی ہیں، اور متاثرہ افراد کے پاس کوئی چارہ نہیں ہوتا۔ اس کا مقابلہ کرنے کے لیے ماہرین وضاحتی AI تکنیکوں، سخت آڈٹ، اور ایسے ضابطہ کار تقاضوں کی حمایت کرتے ہیں جو AI کے فیصلوں کو انسانی اختیار سے منسلک کریں۔

درحقیقت، عالمی اخلاقی رہنما خطوط اس بات پر زور دیتے ہیں کہ AI نظاموں کے رویے کے لیے “ہمیشہ اخلاقی اور قانونی ذمہ داری کو کسی فرد یا ادارے سے منسوب کرنا ممکن ہونا چاہیے۔” انسان کو بالآخر جوابدہ رہنا چاہیے، اور AI کو حساس معاملات میں انسانی فیصلے کی جگہ لینے کے بجائے معاون ہونا چاہیے۔ ورنہ ہم ایک ایسی دنیا بنا سکتے ہیں جہاں اہم فیصلے ناقابل فہم مشینوں کے ذریعے کیے جائیں، جو ناانصافی کا باعث بنے گا۔

کام کی جگہ پر AI کے استعمال میں شفافیت اور جوابدہی کی کمی

طاقت کا ارتکاز اور عدم مساوات

AI انقلاب دنیا بھر میں یکساں نہیں ہو رہا – چند بڑی کمپنیاں اور ممالک جدید AI کی ترقی پر حاوی ہیں، جس کے اپنے خطرات ہیں۔

جدید AI ماڈلز کو بے پناہ ڈیٹا، ہنر، اور کمپیوٹنگ وسائل کی ضرورت ہوتی ہے جو صرف ٹیکنالوجی کے بڑے ادارے (اور مالی معاونت یافتہ حکومتیں) فی الحال رکھتے ہیں۔ ورلڈ اکنامک فورم کے مطابق، اس نے “انتہائی مرتکز، منفرد، عالمی سطح پر مربوط سپلائی چین پیدا کی ہے جو چند کمپنیوں اور ممالک کو فائدہ پہنچاتی ہے۔”

AI طاقت کا یہ ارتکاز AI ٹیکنالوجیز پر اجارہ داری کنٹرول میں تبدیل ہو سکتا ہے، جو مقابلہ اور صارف کے انتخاب کو محدود کرتا ہے۔ یہ خطرہ بھی بڑھاتا ہے کہ چند کمپنیوں یا ممالک کی ترجیحات AI کو ایسے انداز میں تشکیل دیں جو عوامی مفاد کو مدنظر نہ رکھیں۔

اقوام متحدہ نے اس بات کی نشاندہی کی ہے کہ “خطرہ ہے کہ [AI] ٹیکنالوجی لوگوں پر مسلط کی جا سکتی ہے بغیر اس کے کہ وہ اس کے استعمال کے بارے میں رائے دے سکیں،” جب ترقی چند طاقتور ہاتھوں تک محدود ہو۔

یہ عدم توازن عالمی عدم مساوات کو بڑھا سکتا ہے: امیر ممالک اور کمپنیاں AI کا فائدہ اٹھا کر آگے بڑھتی ہیں، جبکہ غریب کمیونٹیز جدید آلات تک رسائی سے محروم رہتی ہیں اور ملازمتوں کے نقصان کا سامنا کرتی ہیں بغیر AI کے فوائد کے۔ مزید برآں، ایک مرتکز AI صنعت جدت کو روک سکتی ہے (اگر نئے آنے والے وسائل کی کمی کی وجہ سے مقابلہ نہ کر سکیں) اور سیکیورٹی کے خطرات پیدا کر سکتی ہے (اگر اہم AI انفراسٹرکچر چند اداروں کے کنٹرول میں ہو تو وہ ایک واحد ناکامی یا چالاکی کا نقطہ بن جاتا ہے)۔

اس خطرے سے نمٹنے کے لیے بین الاقوامی تعاون اور ممکنہ طور پر نئے قوانین کی ضرورت ہے تاکہ AI کی ترقی کو جمہوری بنایا جا سکے – مثلاً، کھلے تحقیق کی حمایت، ڈیٹا اور کمپیوٹ تک منصفانہ رسائی کو یقینی بنانا، اور ایسی پالیسیاں بنانا (جیسے یورپی یونین کا مجوزہ AI ایکٹ) جو “AI گیٹ کیپرز” کی زیادتیوں کو روکیں۔ ایک زیادہ جامع AI منظرنامہ یقینی بنائے گا کہ AI کے فوائد عالمی سطح پر تقسیم ہوں، نہ کہ ٹیکنالوجی رکھنے والوں اور نہ رکھنے والوں کے درمیان فرق بڑھ جائے۔

طاقت کا ارتکاز اور عدم مساوات

AI کا ماحولیاتی اثر

AI کے خطرات پر گفتگو میں اکثر اس کا ماحولیاتی اثر نظر انداز کر دیا جاتا ہے۔ AI کی ترقی، خاص طور پر بڑے مشین لرننگ ماڈلز کی تربیت، بہت زیادہ بجلی اور کمپیوٹنگ طاقت استعمال کرتی ہے۔

ڈیٹا سینٹرز میں ہزاروں طاقت خور سرورز ہوتے ہیں جو AI نظاموں کے لیے ڈیٹا کے سیلاب کو پروسیس کرتے ہیں۔ اس کا مطلب ہے کہ AI بالواسطہ طور پر کاربن کے اخراج اور موسمیاتی تبدیلی میں حصہ ڈال سکتی ہے۔

اقوام متحدہ کی ایک حالیہ رپورٹ میں پایا گیا کہ چار بڑے AI فوکسڈ ٹیک کمپنیوں کے بالواسطہ کاربن اخراج میں 2020 سے 2023 کے درمیان اوسطاً 150% اضافہ ہوا ہے، جو زیادہ تر AI ڈیٹا سینٹرز کی توانائی کی طلب کی وجہ سے ہے۔

جیسے جیسے AI میں سرمایہ کاری بڑھ رہی ہے، AI ماڈلز کو چلانے سے ہونے والا اخراج تیزی سے بڑھنے کا امکان ہے – رپورٹ نے پیش گوئی کی ہے کہ اعلیٰ AI نظام سالانہ مجموعی طور پر 100 ملین ٹن CO₂ سے زیادہ خارج کر سکتے ہیں، جو توانائی کے انفراسٹرکچر پر نمایاں دباؤ ڈالے گا۔

موازنہ کے لیے، AI کو چلانے والے ڈیٹا سینٹرز بجلی کی کھپت کو “مجموعی بجلی کی کھپت میں اضافے سے چار گنا تیزی سے بڑھا رہے ہیں”۔

کاربن کے اخراج کے علاوہ، AI پانی کو ٹھنڈک کے لیے بھی زیادہ استعمال کر سکتی ہے اور ہارڈویئر کی تیز اپ گریڈنگ کی وجہ سے الیکٹرانک فضلہ پیدا کر سکتی ہے۔ اگر اس پر قابو نہ پایا گیا تو AI کا ماحولیاتی اثر عالمی پائیداری کی کوششوں کو نقصان پہنچا سکتا ہے۔

اس خطرے کے پیش نظر AI کو زیادہ توانائی موثر بنانے اور صاف توانائی کے ذرائع استعمال کرنے کی ضرورت ہے۔ محققین توانائی کی کھپت کم کرنے کے لیے گرین AI تکنیکیں تیار کر رہے ہیں، اور کچھ کمپنیوں نے AI کے کاربن اخراج کی تلافی کا وعدہ کیا ہے۔ تاہم، یہ ایک فوری تشویش ہے کہ AI کی دوڑ ایک بھاری ماحولیاتی قیمت لے سکتی ہے۔ تکنیکی ترقی اور ماحولیاتی ذمہ داری کے درمیان توازن قائم کرنا ایک اور چیلنج ہے جسے معاشرے کو AI کے ہر شعبے میں شامل کرتے ہوئے حل کرنا ہوگا۔

AI کا ماحولیاتی اثر

وجودی اور طویل مدتی خطرات

فوری خطرات سے آگے، کچھ ماہرین AI سے مزید قیاسی، طویل مدتی خطرات کی وارننگ دیتے ہیں – جن میں ایک ایسا اعلیٰ AI شامل ہے جو انسانی کنٹرول سے باہر ہو جائے۔ آج کے AI نظام محدود صلاحیتوں کے حامل ہیں، لیکن محققین زیادہ جنرل AI کی طرف کام کر رہے ہیں جو ممکنہ طور پر کئی شعبوں میں انسانوں سے بہتر ہو سکتا ہے۔

یہ پیچیدہ سوالات اٹھاتا ہے: اگر AI بہت زیادہ ذہین یا خود مختار ہو جائے، کیا وہ ایسے طریقوں سے عمل کر سکتا ہے جو انسانیت کے وجود کو خطرے میں ڈالیں؟ اگرچہ یہ سائنس فکشن لگتا ہے، ٹیک کمیونٹی کے نمایاں افراد نے “روگ AI” کے منظرناموں پر تشویش ظاہر کی ہے، اور حکومتیں اس بحث کو سنجیدگی سے لے رہی ہیں۔

2023 میں، برطانیہ نے عالمی AI سیفٹی سمٹ کی میزبانی کی تاکہ فرنٹیئر AI کے خطرات پر بات کی جا سکے۔ سائنسی اتفاق رائے یکساں نہیں ہے – کچھ کا خیال ہے کہ سپر ذہین AI دہائیوں دور ہے یا اسے انسانی اقدار کے مطابق رکھا جا سکتا ہے، جبکہ دیگر ایک چھوٹے مگر غیر صفر امکان والے تباہ کن نتائج دیکھتے ہیں۔

حالیہ بین الاقوامی AI سیفٹی رپورٹ میں کہا گیا ہے کہ “ماہرین کے AI پر انسانی کنٹرول کھونے کے خطرے کے بارے میں مختلف آراء ہیں جو تباہ کن نتائج کا باعث بن سکتا ہے۔”

خلاصہ یہ ہے کہ AI سے وجودی خطرہ، چاہے دور ہو، بالکل مسترد نہیں کیا جا سکتا۔ ایسا نتیجہ AI کے اپنے مقاصد کو انسانی فلاح و بہبود کے نقصان پر حاصل کرنے کا باعث بن سکتا ہے (ایک کلاسیکی مثال وہ AI ہے جو اگر غلط پروگرام کیا جائے تو بڑے پیمانے پر نقصان دہ کام کرنے کا فیصلہ کر لے کیونکہ اس میں عام فہم یا اخلاقی پابندیاں نہیں ہوتیں)۔

اگرچہ آج کوئی AI اس سطح کی خودمختاری نہیں رکھتی، AI کی ترقی کی رفتار تیز اور غیر متوقع ہے، جو خود ایک خطرہ ہے۔ طویل مدتی خطرات کے لیے تیاری کا مطلب ہے AI کی ہم آہنگی کی تحقیق میں سرمایہ کاری (یقینی بنانا کہ AI کے مقاصد انسانی اقدار کے مطابق رہیں)، اعلیٰ سطحی AI تحقیق پر بین الاقوامی معاہدے قائم کرنا (جیسے جوہری یا حیاتیاتی ہتھیاروں کے معاہدے)، اور AI نظاموں کی صلاحیت بڑھنے کے ساتھ انسانی نگرانی کو برقرار رکھنا۔

AI کا مستقبل بے پناہ وعدے رکھتا ہے، لیکن ساتھ ہی غیر یقینی صورتحال بھی – اور احتیاط کا تقاضا ہے کہ ہم اپنے طویل مدتی منصوبہ بندی میں کم امکانات والے مگر شدید اثرات والے خطرات کو بھی مدنظر رکھیں۔

>>> مزید جاننے کے لیے کلک کریں: انفرادی اور کاروباری افراد کے لیے مصنوعی ذہانت کے فوائد

AI میں وجودی اور طویل مدتی خطرات


AI کی اکثر تشبیہ ایک طاقتور انجن سے دی جاتی ہے جو انسانیت کو آگے بڑھا سکتا ہے – لیکن اگر اس میں بریک اور سٹیئرنگ نہ ہو تو یہ انجن راستہ بھٹک سکتا ہے۔ جیسا کہ ہم نے دیکھا، AI کے استعمال کے خطرات متعدد جہتی ہیں: فوری مسائل جیسے تعصبی الگورتھمز، جعلی خبریں، رازداری کی خلاف ورزیاں، اور ملازمتوں میں تبدیلی، سے لے کر وسیع تر سماجی چیلنجز جیسے سیکیورٹی خطرات، “بلیک باکس” فیصلے، بڑی ٹیک کمپنیوں کی اجارہ داری، ماحولیاتی دباؤ، اور یہاں تک کہ سپر ذہین AI کے کنٹرول کھونے کا دور کا خوف۔

یہ خطرات اس بات کا مطلب نہیں کہ ہمیں AI کی ترقی روک دینی چاہیے؛ بلکہ یہ ذمہ دار AI گورننس اور اخلاقی طریقوں کی فوری ضرورت کو اجاگر کرتے ہیں۔

حکومتیں، بین الاقوامی تنظیمیں، صنعت کے رہنما، اور محققین ان خدشات کو دور کرنے کے لیے بڑھ چڑھ کر تعاون کر رہے ہیں – مثلاً، امریکہ کے NIST AI رسک مینجمنٹ فریم ورک (AI کی قابل اعتمادیت کو بہتر بنانے کے لیے)، UNESCO کی عالمی AI اخلاقیات کی سفارش، اور یورپی یونین کا AI ایکٹ۔

ایسے اقدامات کا مقصد AI کے فوائد کو زیادہ سے زیادہ اور نقصانات کو کم سے کم کرنا ہے، تاکہ AI انسانیت کی خدمت کرے نہ کہ اس کے برعکس۔ آخر میں، AI کے خطرات کو سمجھنا ان کے انتظام کا پہلا قدم ہے۔ معلومات حاصل کر کے اور AI کی ترقی اور استعمال میں شامل ہو کر، ہم اس تبدیلی لانے والی ٹیکنالوجی کو محفوظ، منصفانہ، اور فائدہ مند سمت میں لے جا سکتے ہیں۔