مصنوعی ذہانت کے استعمال کے خطرات

مصنوعی ذہانت (AI) بہت سے فوائد لاتی ہے لیکن اگر اس کا غلط استعمال کیا جائے یا بغیر کنٹرول کے استعمال ہو تو یہ کئی خطرات بھی پیدا کرتی ہے۔ ڈیٹا سیکیورٹی کے مسائل، معلومات کی تحریف، کاپی رائٹ کی خلاف ورزی سے لے کر مزدوروں کی جگہ لینے کے خطرے تک، AI ایسے چیلنجز پیش کرتی ہے جنہیں مؤثر طریقے سے شناخت اور انتظام کرنا ضروری ہے۔ AI کے استعمال کے خطرات کو سمجھنا افراد اور کاروباروں کو اس ٹیکنالوجی کو محفوظ اور پائیدار طریقے سے استعمال کرنے میں مدد دیتا ہے۔

مصنوعی ذہانت (AI) اب ہر چیز میں شامل ہو چکی ہے، چاہے وہ اسمارٹ فون اسسٹنٹس ہوں، سوشل میڈیا فیڈز، صحت کی دیکھ بھال یا ٹرانسپورٹیشن۔ یہ ٹیکنالوجیز بے مثال فوائد لاتی ہیں، لیکن ان کے ساتھ نمایاں خطرات اور چیلنجز بھی ہوتے ہیں۔

اہم انتباہ: ماہرین اور عالمی ادارے خبردار کرتے ہیں کہ مناسب اخلاقی حدود کے بغیر، AI حقیقی دنیا کے تعصبات اور امتیاز کو دہرا سکتی ہے، ماحولیاتی نقصان میں اضافہ کر سکتی ہے، انسانی حقوق کو خطرے میں ڈال سکتی ہے، اور موجودہ عدم مساوات کو بڑھا سکتی ہے۔

اس مضمون میں، آئیے INVIAI کے ساتھ مصنوعی ذہانت کے استعمال کے خطرات کو تمام شعبوں اور AI کی اقسام میں دریافت کریں – چاہے وہ چیٹ بوٹس ہوں، الگورتھمز یا روبوٹس – سرکاری اور بین الاقوامی ذرائع کی بصیرت کی بنیاد پر۔

مواد کا جدول

AI نظاموں میں تعصب اور امتیاز

AI کا ایک بڑا خطرہ تعصب اور غیر منصفانہ امتیاز کا جڑ پکڑنا ہے۔ AI ماڈلز ایسے ڈیٹا سے سیکھتے ہیں جو تاریخی تعصبات یا عدم مساوات کی عکاسی کر سکتا ہے؛ نتیجتاً، AI نظام نسل، جنس یا دیگر خصوصیات کی بنیاد پر لوگوں کے ساتھ مختلف سلوک کر سکتا ہے جو ناانصافی کو بڑھاتا ہے۔

خراب کام کرنے والا عمومی AI نسل، جنس، ثقافت، عمر، اور معذوری جیسے محفوظ کردہ خصوصیات کے حوالے سے تعصبی فیصلوں کے ذریعے نقصان پہنچا سکتا ہے۔

— بین الاقوامی AI سیفٹی رپورٹ
حقیقی دنیا کا اثر: بھرتی، قرضہ دینے، یا پولیسنگ میں استعمال ہونے والے تعصبی الگورتھمز نے پہلے ہی غیر مساوی نتائج دیے ہیں جو مخصوص گروہوں کو غیر منصفانہ نقصان پہنچاتے ہیں۔

یونیسکو جیسے عالمی ادارے خبردار کرتے ہیں کہ انصاف کے اقدامات کے بغیر، AI خطرہ رکھتی ہے کہ "حقیقی دنیا کے تعصبات اور امتیاز کو دہرا کر تقسیم کو بڑھائے اور بنیادی انسانی حقوق اور آزادیوں کو خطرے میں ڈالے۔" یہ ضروری ہے کہ AI نظاموں کو متنوع، نمائندہ ڈیٹا پر تربیت دی جائے اور تعصب کے لیے آڈٹ کیا جائے تاکہ خودکار امتیاز سے بچا جا سکے۔

بھرتی میں تعصب

AI بھرتی کے آلات مخصوص آبادیوں کے خلاف امتیاز کر سکتے ہیں

قرضہ دینے میں امتیاز

مالی الگورتھمز محفوظ کردہ خصوصیات کی بنیاد پر قرضے غیر منصفانہ طور پر مسترد کر سکتے ہیں

پولیسنگ میں عدم مساوات

پیش گوئی کرنے والی پولیسنگ موجودہ قانون نافذ کرنے والے تعصبات کو مضبوط کر سکتی ہے

AI نظاموں میں تعصب اور امتیاز
AI نظاموں میں تعصب اور امتیاز

غلط معلومات اور ڈیپ فیک کے خطرات

AI کی صلاحیت ہے کہ وہ انتہائی حقیقت نما متن، تصاویر، اور ویڈیوز تیار کر سکتی ہے، جس سے غلط معلومات کے سیلاب کا خوف پیدا ہوا ہے۔ جنریٹو AI قائل کرنے والے جعلی خبریں، جھوٹی تصاویر، یا ڈیپ فیک ویڈیوز بنا سکتی ہے جو حقیقت سے پہچاننا مشکل ہوتے ہیں۔

عالمی خطرے کی اطلاع: ورلڈ اکنامک فورم کی گلوبل رسکس رپورٹ 2024 نے "چالاکی سے تیار کردہ اور جھوٹی معلومات" کو سب سے شدید قلیل مدتی عالمی خطرہ قرار دیا ہے، اور نوٹ کیا ہے کہ AI "چالاکی سے تیار کردہ اور مسخ شدہ معلومات کو بڑھا رہی ہے جو معاشروں کو غیر مستحکم کر سکتی ہے۔"

درحقیقت، AI سے پیدا ہونے والی غلط معلومات اور گمراہ کن معلومات "جمہوری عمل کے لیے سب سے بڑے چیلنجز میں سے ایک" ہیں – خاص طور پر جب اربوں لوگ آنے والے انتخابات میں ووٹ دینے جا رہے ہیں۔ مصنوعی میڈیا جیسے ڈیپ فیک ویڈیوز اور AI سے بنائی گئی آوازیں پروپیگنڈا پھیلانے، عوامی شخصیات کی نقل کرنے، یا فراڈ کرنے کے لیے استعمال ہو سکتی ہیں۔

ڈیپ فیک ویڈیوز

انتہائی حقیقت نما جعلی ویڈیوز جو کسی کی بھی نقل کر سکتی ہیں، ممکنہ طور پر فراڈ یا سیاسی چالاکی کے لیے استعمال ہوتی ہیں۔

آواز کی نقل

AI سے بنائی گئی آواز کی نقول جو کسی کی بولنے کے انداز کی نقل کر سکتی ہیں، دھوکہ دہی کے مقاصد کے لیے۔

حکام خبردار کرتے ہیں کہ خراب ارادے رکھنے والے AI کو بڑے پیمانے پر غلط معلومات کے مہمات کے لیے استعمال کر سکتے ہیں، جس سے سوشل نیٹ ورکس پر جعلی مواد کی بھرمار اور افراتفری پھیلانا آسان ہو جاتا ہے۔ خطرہ ایک ایسا معلوماتی ماحول ہے جہاں شہری جو دیکھتے یا سنتے ہیں اس پر اعتماد نہیں کر سکتے، جو عوامی مباحثے اور جمہوریت کو نقصان پہنچاتا ہے۔

AI میں غلط معلومات اور ڈیپ فیک کے خطرات
AI میں غلط معلومات اور ڈیپ فیک کے خطرات

پرائیویسی اور وسیع نگرانی کے خطرات

AI کے وسیع استعمال سے سنگین پرائیویسی کے خدشات پیدا ہوتے ہیں۔ AI نظاموں کو مؤثر طریقے سے کام کرنے کے لیے اکثر بہت زیادہ ذاتی ڈیٹا کی ضرورت ہوتی ہے – ہمارے چہروں اور آوازوں سے لے کر خریداری کی عادات اور مقام تک۔ بغیر مضبوط حفاظتی اقدامات کے، یہ ڈیٹا غلط استعمال یا استحصال کا شکار ہو سکتا ہے۔

یونیسکو کی وارننگ: AI نظاموں کو سماجی اسکورنگ یا وسیع نگرانی کے لیے استعمال نہیں کیا جانا چاہیے۔ ایسے استعمال کو وسیع پیمانے پر ناقابل قبول خطرات سمجھا جاتا ہے۔

مثال کے طور پر، چہرے کی شناخت اور پیش گوئی کرنے والے الگورتھمز وسیع نگرانی کو ممکن بنا سکتے ہیں، افراد کی ہر حرکت کو ٹریک کر سکتے ہیں یا ان کے رویے کو بغیر اجازت درجہ بندی کر سکتے ہیں۔

چہرے کی شناخت

عوامی جگہوں پر افراد کی مسلسل نگرانی

  • شناخت کی نگرانی
  • رویے کا تجزیہ

پیش گوئی کرنے والی تجزیہ کاری

AI تجزیہ جو ذاتی تفصیلات ظاہر کرتا ہے

  • صحت کی حالت
  • سیاسی عقائد

سماجی اسکورنگ

رویے کی بنیاد پر شہریوں کی درجہ بندی

  • کریڈٹ اسکورنگ
  • سماجی تعمیل

پرائیویسی ایک ایسا حق ہے جو انسانی وقار، خودمختاری اور اختیار کے تحفظ کے لیے ضروری ہے اور AI نظام کے پورے زندگی کے دور میں اس کا احترام کیا جانا چاہیے۔

— ڈیٹا پروٹیکشن ایجنسیاں

اگر AI کی ترقی پرائیویسی قوانین سے آگے نکل گئی، تو افراد اپنی معلومات پر کنٹرول کھو سکتے ہیں۔ معاشرے کو یہ یقینی بنانا چاہیے کہ مضبوط ڈیٹا گورننس، رضامندی کے طریقے، اور پرائیویسی کو محفوظ رکھنے والی تکنیکیں موجود ہوں تاکہ AI ٹیکنالوجیز بے قابو نگرانی کے آلات نہ بن جائیں۔

پرائیویسی اور وسیع نگرانی کے خطرات
پرائیویسی اور وسیع نگرانی کے خطرات

حفاظتی ناکامیاں اور غیر ارادی نقصان

اگرچہ AI فیصلے اور جسمانی کاموں کو انسان سے زیادہ مؤثر طریقے سے خودکار کر سکتی ہے، لیکن یہ غیر متوقع طریقوں سے ناکام بھی ہو سکتی ہے، جس سے حقیقی دنیا میں نقصان ہو سکتا ہے۔ ہم AI پر زیادہ سے زیادہ حفاظتی ذمہ داریاں سونپتے ہیں – جیسے گاڑیاں چلانا، مریضوں کی تشخیص کرنا، یا بجلی کے گرڈز کا انتظام کرنا – لیکن یہ نظام کامل نہیں ہیں۔

خرابی، ناقص تربیتی ڈیٹا، یا غیر متوقع حالات AI کو خطرناک غلطیاں کرنے پر مجبور کر سکتے ہیں۔ خودکار گاڑی کا AI پیدل چلنے والے کو غلط شناخت کر سکتا ہے، یا طبی AI غلط علاج تجویز کر سکتا ہے، جس کے نتائج جان لیوا ہو سکتے ہیں۔

خودکار گاڑیاں

پیدل چلنے والوں یا رکاوٹوں کی غلط شناخت سے حادثات

طبی AI

غلط تشخیص یا علاج کی سفارشات جن کے جان لیوا نتائج ہو سکتے ہیں

بجلی کے گرڈ کا انتظام

نظام کی ناکامیاں جو وسیع پیمانے پر بجلی کی بندش یا انفراسٹرکچر کو نقصان پہنچا سکتی ہیں

ناخواہ نقصان (حفاظتی خطرات) اور حملوں کے لیے کمزوریاں (سیکیورٹی خطرات) کو AI نظاموں کی زندگی کے دور میں روکنا اور حل کرنا چاہیے تاکہ انسانی، ماحولیاتی اور ماحولیاتی نظام کی حفاظت یقینی بنائی جا سکے۔

— بین الاقوامی AI رہنما اصول
اہم اصول: زندگی اور موت کے فیصلے AI نظاموں کو نہیں سونپنے چاہئیں۔ اعلیٰ خطرے والے استعمال میں انسانی نگرانی برقرار رکھنا ضروری ہے۔

دوسرے الفاظ میں، AI نظاموں کو سخت جانچ، نگرانی، اور فیل سیف کے ساتھ بنایا جانا چاہیے تاکہ خرابیوں کے امکانات کم ہوں۔ AI پر ضرورت سے زیادہ انحصار بھی خطرناک ہو سکتا ہے – اگر انسان خودکار فیصلوں پر اندھا اعتماد کرنے لگیں تو جب کچھ غلط ہو تو بروقت مداخلت نہیں کر پائیں گے۔

لہٰذا، انسانی نگرانی کو یقینی بنانا بہت ضروری ہے۔ اعلیٰ خطرے والے استعمالات (جیسے صحت کی دیکھ بھال یا ٹرانسپورٹیشن) میں حتمی فیصلے انسانی فیصلے کے تابع ہونے چاہئیں۔ AI میں حفاظت اور اعتماد کو برقرار رکھنا ایک مسلسل چیلنج ہے، جس کے لیے AI ڈویلپرز کی جانب سے محتاط ڈیزائن اور ذمہ داری کا کلچر ضروری ہے۔

AI میں حفاظتی ناکامیاں اور غیر ارادی نقصان
AI میں حفاظتی ناکامیاں اور غیر ارادی نقصان

ملازمتوں کا خاتمہ اور معاشی خلل

AI کا معیشت پر تبدیلی لانے والا اثر دو دھاری تلوار کی مانند ہے۔ ایک طرف، AI پیداواریت کو بڑھا سکتی ہے اور بالکل نئی صنعتیں پیدا کر سکتی ہے؛ دوسری طرف، یہ لاکھوں کارکنوں کو خودکار نظاموں کے ذریعے بے روزگار کرنے کا خطرہ رکھتی ہے۔

بہت سی ملازمتیں – خاص طور پر وہ جو معمول کے، دہرائے جانے والے کاموں یا آسانی سے تجزیہ کیے جانے والے ڈیٹا پر مبنی ہیں – AI الگورتھمز اور روبوٹس کے قبضے میں آ سکتی ہیں۔

سنگین پیش گوئی: ورلڈ اکنامک فورم کا اندازہ ہے کہ 2030 تک AI اور متعلقہ ٹیکنالوجیز کی وجہ سے 92 ملین ملازمتیں ختم ہو سکتی ہیں۔
موجودہ ورک فورس

روایتی ملازمتیں

  • معمول کے، دہرائے جانے والے کام
  • ڈیٹا تجزیہ کے کردار
  • دستی محنت کی پوزیشنز
  • بنیادی کسٹمر سروس
AI سے چلنے والی معیشت

نئی مہارتوں کی ضرورت

  • AI کے ساتھ تعاون کی مہارتیں
  • تخلیقی مسئلہ حل کرنا
  • تکنیکی AI انتظام
  • انسانی مرکز خدمات

اگرچہ معیشت نئی ملازمتیں بھی پیدا کر سکتی ہے (ممکنہ طور پر زیادہ ملازمتیں جو طویل مدت میں ختم ہوئیں)، تبدیلی بہت سے لوگوں کے لیے تکلیف دہ ہوگی۔ حاصل کی گئی ملازمتیں اکثر مختلف، زیادہ جدید مہارتیں چاہتی ہیں یا مخصوص ٹیکنالوجی مراکز میں مرکوز ہوتی ہیں، جس کا مطلب ہے کہ بہت سے بے روزگار کارکنوں کو نئی جگہ تلاش کرنے میں مشکلات پیش آ سکتی ہیں۔

یہ مہارتوں کا فرق جو کارکنوں کے پاس ہے اور نئی AI سے چلنے والی ملازمتوں کی ضرورت ہے اگر حل نہ کیا گیا تو بے روزگاری اور عدم مساوات میں اضافہ کر سکتا ہے۔ درحقیقت، پالیسی ساز اور محققین خبردار کرتے ہیں کہ تیز AI ترقی "مزدور مارکیٹ میں خلل اور معاشی طاقت کی عدم مساوات" لا سکتی ہے۔

صنفی اثر

خواتین کی زیادہ تعداد والی ملازمتیں خودکاری کے خطرے میں ہیں

ترقی پذیر ممالک

ترقی پذیر ممالک کے کارکنوں کو خودکاری کے زیادہ خطرات کا سامنا ہے

بغیر پیشگی اقدامات کے (جیسے دوبارہ تربیتی پروگرام، AI مہارتوں کی تعلیم، اور سماجی حفاظتی جال)، AI معاشرتی و اقتصادی فرق کو بڑھا سکتی ہے، ایک ایسی AI سے چلنے والی معیشت پیدا کر سکتی ہے جہاں ٹیکنالوجی کے مالک زیادہ تر فوائد حاصل کریں۔

ورک فورس کو AI کے اثرات کے لیے تیار کرنا بہت ضروری ہے تاکہ خودکاری کے فوائد وسیع پیمانے پر تقسیم ہوں اور وسیع پیمانے پر ملازمتوں کے نقصان سے سماجی انتشار سے بچا جا سکے۔

AI میں ملازمتوں کا خاتمہ اور معاشی خلل
AI میں ملازمتوں کا خاتمہ اور معاشی خلل

مجرمانہ غلط استعمال، فراڈ، اور سیکیورٹی کے خطرات

AI ایک طاقتور آلہ ہے جو نیک مقاصد کے ساتھ جتنا آسانی سے استعمال ہو سکتا ہے، اتنی ہی آسانی سے بد نیتی کے لیے بھی استعمال ہو سکتا ہے۔ سائبر کرمنلز اور دیگر خراب ارادے رکھنے والے پہلے ہی AI کا استعمال اپنے حملوں کو بہتر بنانے کے لیے کر رہے ہیں۔

مثال کے طور پر، AI انتہائی ذاتی نوعیت کے فشنگ ای میلز یا وائس میسجز (کسی کی آواز کی نقل کر کے) بنا سکتی ہے تاکہ لوگوں کو حساس معلومات ظاہر کرنے یا پیسے بھیجنے پر مجبور کیا جا سکے۔ یہ ہیکنگ کو خودکار بنانے کے لیے بھی استعمال ہو سکتی ہے، جو سافٹ ویئر کی کمزوریوں کو بڑے پیمانے پر تلاش کرتی ہے، یا ایسے مالویئر تیار کرنے کے لیے جو شناخت سے بچنے کے لیے خود کو تبدیل کرتا ہے۔

AI سے چلنے والا فشنگ

انتہائی ذاتی نوعیت کے دھوکہ دہی والے ای میلز بڑے پیمانے پر تیار کیے جاتے ہیں

خودکار ہیکنگ

AI نظام ہیکرز سے تیزی سے کمزوریاں تلاش کرتے ہیں

مطابقت پذیر مالویئر

خود کو تبدیل کرنے والا نقصان دہ سافٹ ویئر جو شناخت سے بچتا ہے

خراب ارادے رکھنے والے AI کو بڑے پیمانے پر غلط معلومات، اثر و رسوخ کی مہمات، فراڈ، اور دھوکہ دہی کے لیے استعمال کر سکتے ہیں۔

— برطانیہ کی حکومت کی رپورٹ

AI سیفٹی سینٹر نے AI کے بد نیتی سے استعمال کو ایک اہم مسئلہ قرار دیا ہے، جس میں ایسے منظرنامے شامل ہیں جہاں AI نظام مجرموں کے ذریعے بڑے پیمانے پر فراڈ اور سائبر حملے کرنے کے لیے استعمال ہوتے ہیں۔

AI کی رفتار، پیمانہ، اور مہارت روایتی دفاعی نظاموں کو مغلوب کر سکتی ہے – تصور کریں کہ ہزاروں AI سے بنے ہوئے دھوکہ دہی والے کالز یا ڈیپ فیک ویڈیوز ایک ہی دن میں کسی کمپنی کی سیکیورٹی کو نشانہ بنا رہے ہوں۔

نئے خطرات: AI شناخت کی چوری، ہراسانی، اور نقصان دہ مواد جیسے غیر رضامند ڈیپ فیک فحش نگاری یا انتہا پسند گروہوں کے لیے پروپیگنڈا بنانے میں استعمال ہو رہی ہے۔

جیسے جیسے AI کے آلات زیادہ قابل رسائی ہوتے جا رہے ہیں، ان بد نیتی سرگرمیوں کو انجام دینے کی رکاوٹ کم ہو رہی ہے، جس سے AI سے متعلق جرائم میں اضافہ ہو سکتا ہے۔

یہ سائبر سیکیورٹی اور قانون نافذ کرنے والے اداروں کے لیے نئے طریقے اپنانے کی ضرورت کو ظاہر کرتا ہے، جیسے AI نظام جو ڈیپ فیک یا غیر معمولی رویے کا پتہ لگا سکیں اور مجرموں کو جوابدہ بنانے کے لیے قانونی فریم ورک کو اپ ڈیٹ کرنا۔ بنیادی طور پر، ہمیں یہ توقع رکھنی چاہیے کہ AI کی جو بھی صلاحیت فائدہ اٹھانے والوں کو ملے گی، وہی مجرموں کو بھی مل سکتی ہے – اور اسی کے مطابق تیاری کرنی چاہیے۔

AI میں مجرمانہ غلط استعمال، فراڈ، اور سیکیورٹی کے خطرات
AI میں مجرمانہ غلط استعمال، فراڈ، اور سیکیورٹی کے خطرات

عسکریت پسندی اور خودکار ہتھیار

شاید AI کا سب سے خوفناک خطرہ جنگ اور قومی سلامتی کے تناظر میں سامنے آتا ہے۔ AI تیزی سے عسکری نظاموں میں شامل ہو رہی ہے، جس سے خودکار ہتھیاروں ("قاتل روبوٹس") اور جنگ میں AI سے چلنے والے فیصلوں کا امکان بڑھ رہا ہے۔

یہ ٹیکنالوجیز انسان سے تیز ردعمل دے سکتی ہیں، لیکن جان لیوا طاقت کے استعمال سے انسانی کنٹرول ہٹانا خطرناک ہے۔ خطرہ ہے کہ AI کنٹرولڈ ہتھیار غلط ہدف منتخب کر سکتے ہیں یا غیر متوقع طریقوں سے تنازعات کو بڑھا سکتے ہیں۔

بین الاقوامی تشویش: عسکری استعمال کے لیے AI کے ہتھیار بنانے کو بین الاقوامی مبصرین ایک بڑھتے ہوئے خطرے کے طور پر دیکھتے ہیں۔

ہدف کے انتخاب میں غلطیاں

AI ہتھیار شہریوں کو جنگجو سمجھ کر نشانہ بنا سکتے ہیں

  • غلط مثبت شناخت
  • شہری ہلاکتیں

تنازعہ کی شدت

خودکار نظام انسانی ارادے سے باہر حالات کو بڑھا سکتے ہیں

  • تیز ردعمل کے چکر
  • ناقابل کنٹرول شدت

اگر ممالک اپنی ہتھیاروں کو ذہین ہتھیاروں سے لیس کرنے کی دوڑ میں لگ جائیں، تو یہ ایک غیر مستحکم ہتھیاروں کی دوڑ کو جنم دے سکتا ہے۔ مزید برآں، AI کو سائبر جنگ میں بھی استعمال کیا جا سکتا ہے تاکہ خودکار طریقے سے اہم انفراسٹرکچر پر حملہ کیا جائے یا پروپیگنڈا پھیلایا جائے، جس سے امن اور تنازعہ کے درمیان لائن دھندلی ہو جاتی ہے۔

اگر AI کی ترقی چند ہاتھوں میں مرکوز ہو جائے تو اسے لوگوں پر لاگو کیا جا سکتا ہے بغیر ان کی رائے کے، جو عالمی سلامتی اور اخلاقیات کو نقصان پہنچاتا ہے۔

— اقوام متحدہ

خودکار ہتھیاروں کے نظام قانونی اور اخلاقی مسائل بھی پیدا کرتے ہیں – اگر AI ڈرون غلطی سے شہریوں کو مار دے تو ذمہ دار کون ہوگا؟ ایسے نظام بین الاقوامی انسانی حقوق کے قوانین کی تعمیل کیسے کریں گے؟

ان غیر حل شدہ سوالات نے کچھ AI سے چلنے والے ہتھیاروں پر پابندی یا سخت ضابطہ کاری کے مطالبات کو جنم دیا ہے۔ زندگی اور موت کے فیصلے کرنے والے کسی بھی AI پر انسانی نگرانی کو یقینی بنانا وسیع پیمانے پر ضروری سمجھا جاتا ہے۔ اس کے بغیر، خطرہ صرف میدان جنگ میں المناک غلطیاں نہیں بلکہ جنگ میں انسانی ذمہ داری کا خاتمہ بھی ہے۔

AI میں عسکریت پسندی اور خودکار ہتھیار
AI میں عسکریت پسندی اور خودکار ہتھیار

شفافیت اور جوابدہی کی کمی

آج کے زیادہ تر جدید AI نظام "بلیک باکس" کی طرح کام کرتے ہیں – ان کی اندرونی منطق اکثر ان کے خالقوں کے لیے بھی غیر واضح ہوتی ہے۔ شفافیت کی کمی ایک ایسا خطرہ پیدا کرتی ہے کہ AI کے فیصلے کی وضاحت یا چیلنج نہیں کی جا سکتی، جو انصاف، مالیات، یا صحت کی دیکھ بھال جیسے شعبوں میں ایک سنگین مسئلہ ہے جہاں وضاحت قانونی یا اخلاقی ضرورت ہو سکتی ہے۔

اگر AI کسی کو قرضہ دینے سے انکار کرے، بیماری کی تشخیص کرے، یا فیصلہ کرے کہ کون قید سے رہا ہو گا، تو ہم فطری طور پر جاننا چاہتے ہیں کیوں۔ کچھ AI ماڈلز (خاص طور پر پیچیدہ نیورل نیٹ ورکس) کے ساتھ واضح وجہ فراہم کرنا مشکل ہوتا ہے۔

قانونی فیصلے

پیرول، سزا، اور قانونی فیصلے جو غیر واضح AI نظاموں کے ذریعے کیے جاتے ہیں

مالی خدمات

قرض کی منظوری اور کریڈٹ فیصلے بغیر واضح وضاحت کے

صحت کی دیکھ بھال

غیر واضح AI سے طبی تشخیص اور علاج کی سفارشات

شفافیت کی کمی AI نظاموں کے نتائج کی بنیاد پر کیے گئے فیصلوں کو مؤثر طریقے سے چیلنج کرنے کے امکان کو کمزور کر سکتی ہے، اور اس طرح منصفانہ مقدمے اور مؤثر علاج کے حق کی خلاف ورزی کر سکتی ہے۔

— یونیسکو

دوسرے الفاظ میں، اگر نہ صارفین اور نہ ہی ضابطہ کار سمجھ سکیں کہ AI کیسے فیصلے کر رہا ہے، تو غلطیوں یا تعصبات کے لیے کسی کو جوابدہ ٹھہرانا تقریباً ناممکن ہو جاتا ہے۔

جوابدہی کا خلا: کمپنیاں "الگورتھم" کو الزام دے کر ذمہ داری سے بچ سکتی ہیں، اور متاثرہ افراد کے پاس کوئی چارہ نہیں ہوتا۔

اس کا مقابلہ کرنے کے لیے، ماہرین وضاحتی AI تکنیکوں، سخت آڈٹ، اور ایسے ضابطہ کار تقاضوں کی حمایت کرتے ہیں جو AI کے فیصلوں کو انسانی اختیار سے منسلک کریں۔

درحقیقت، عالمی اخلاقی رہنما اصول اس بات پر زور دیتے ہیں کہ AI نظاموں کے رویے کے لیے "ہمیشہ اخلاقی اور قانونی ذمہ داری کا تعین ممکن ہونا چاہیے"۔ انسان کو بالآخر جوابدہ رہنا چاہیے، اور AI کو حساس معاملات میں انسانی فیصلے کی جگہ لینے کے بجائے مددگار ہونا چاہیے۔ ورنہ ہم ایک ایسی دنیا بنا سکتے ہیں جہاں اہم فیصلے ناقابل فہم مشینوں کے ذریعے کیے جائیں، جو ناانصافی کا باعث ہے۔

کام کی جگہ میں AI کے استعمال میں شفافیت اور جوابدہی کی کمی
کام کی جگہ میں AI کے استعمال میں شفافیت اور جوابدہی کی کمی

طاقت کا ارتکاز اور عدم مساوات

AI انقلاب دنیا بھر میں یکساں نہیں ہو رہا – چند بڑی کمپنیاں اور ممالک جدید AI کی ترقی پر حاوی ہیں، جس کے اپنے خطرات ہیں۔

جدید AI ماڈلز کو بہت زیادہ ڈیٹا، ٹیلنٹ، اور کمپیوٹنگ وسائل کی ضرورت ہوتی ہے جو صرف ٹیکنالوجی کے بڑے ادارے (اور اچھی مالی معاونت والے حکومتیں) فی الحال رکھتے ہیں۔

اس نے ایک انتہائی مرتکز، یکساں، عالمی سطح پر مربوط سپلائی چین کو جنم دیا ہے جو چند کمپنیوں اور ممالک کو فائدہ پہنچاتی ہے۔

— ورلڈ اکنامک فورم

ڈیٹا کی اجارہ داری

بہت بڑے ڈیٹا سیٹس چند اداروں کے کنٹرول میں

کمپیوٹنگ وسائل

مہنگا انفراسٹرکچر جو صرف ٹیکنالوجی کے بڑے اداروں کے لیے دستیاب ہے

ٹیلنٹ کا ارتکاز

اعلیٰ AI محققین چند تنظیموں میں مرکوز ہیں

ایسی طاقت کا ارتکاز AI ٹیکنالوجیز پر اجارہ داری کنٹرول میں تبدیل ہو سکتا ہے، جو مقابلہ اور صارف کے انتخاب کو محدود کرتا ہے۔ یہ خطرہ بھی بڑھاتا ہے کہ چند کمپنیوں یا ممالک کی ترجیحات AI کو ایسے طریقوں سے تشکیل دیں جو عوامی مفاد کو مدنظر نہ رکھیں۔

اقوام متحدہ کی وارننگ: خطرہ ہے کہ AI ٹیکنالوجی لوگوں پر لاگو کی جا سکتی ہے بغیر ان کی رائے کے، جب ترقی چند طاقتور ہاتھوں تک محدود ہو۔

یہ عدم توازن عالمی عدم مساوات کو بڑھا سکتا ہے: امیر ممالک اور کمپنیاں AI کا فائدہ اٹھا کر آگے بڑھتی ہیں، جبکہ غریب کمیونٹیز جدید آلات تک رسائی سے محروم رہتی ہیں اور ملازمتوں کے نقصان کا سامنا کرتی ہیں بغیر AI کے فوائد کے۔

مزید برآں، ایک مرتکز AI صنعت جدت کو روک سکتی ہے (اگر نئے آنے والے وسائل کے مقابلے میں مقابلہ نہ کر سکیں) اور سیکیورٹی خطرات پیدا کر سکتی ہے (اگر اہم AI انفراسٹرکچر چند اداروں کے کنٹرول میں ہو تو یہ ایک واحد ناکامی یا چالاکی کا نقطہ بن جاتا ہے)۔

اس خطرے سے نمٹنے کے لیے بین الاقوامی تعاون اور ممکنہ طور پر نئے ضوابط کی ضرورت ہے تاکہ AI کی ترقی کو جمہوری بنایا جا سکے – مثلاً، کھلے تحقیق کی حمایت، ڈیٹا اور کمپیوٹ تک منصفانہ رسائی کو یقینی بنانا، اور ایسی پالیسیاں بنانا (جیسے یورپی یونین کا مجوزہ AI ایکٹ) جو "AI گیٹ کیپرز" کی جانب سے غلط استعمال کو روکے۔ ایک زیادہ جامع AI منظرنامہ یقینی بنائے گا کہ AI کے فوائد عالمی سطح پر تقسیم ہوں، نہ کہ ٹیکنالوجی کے مالکان اور غیر مالکان کے درمیان فرق بڑھے۔

طاقت کا ارتکاز اور عدم مساوات
طاقت کا ارتکاز اور عدم مساوات

AI کا ماحولیاتی اثر

AI کے خطرات پر گفتگو میں اکثر نظر انداز کیا جاتا ہے اس کا ماحولیاتی نشان۔ AI کی ترقی، خاص طور پر بڑے مشین لرننگ ماڈلز کی تربیت، بہت زیادہ بجلی اور کمپیوٹنگ طاقت استعمال کرتی ہے۔

ڈیٹا سینٹرز میں ہزاروں طاقت خور سرورز ہوتے ہیں جو AI نظاموں کے سیکھنے کے لیے ڈیٹا کی بڑی مقدار کو پروسیس کرتے ہیں۔ اس کا مطلب ہے کہ AI بالواسطہ طور پر کاربن کے اخراج اور موسمیاتی تبدیلی میں حصہ ڈال سکتی ہے۔

تشویشناک اعداد و شمار: اقوام متحدہ کی ایک حالیہ ایجنسی رپورٹ میں پایا گیا کہ چار بڑے AI فوکسڈ ٹیک کمپنیوں کے بالواسطہ کاربن اخراج میں 2020 سے 2023 کے درمیان اوسطاً 150% اضافہ ہوا، جو زیادہ تر AI ڈیٹا سینٹرز کی توانائی کی طلب کی وجہ سے تھا۔
کاربن اخراج میں اضافہ (2020-2023) 150%

جیسے جیسے AI میں سرمایہ کاری بڑھتی ہے، AI ماڈلز کو چلانے سے ہونے والا اخراج تیزی سے بڑھنے کا امکان ہے – رپورٹ نے اندازہ لگایا کہ اعلیٰ AI نظام سالانہ 100 ملین ٹن CO₂ سے زیادہ خارج کر سکتے ہیں، جو توانائی کے انفراسٹرکچر پر نمایاں دباؤ ڈالے گا۔

موازنہ کے لیے، AI کو چلانے والے ڈیٹا سینٹرز بجلی کی کھپت کو "مجموعی بجلی کی کھپت کی شرح سے چار گنا تیزی سے بڑھا رہے ہیں"۔

توانائی کی کھپت

AI ماڈلز کی تربیت اور چلانے کے لیے وسیع بجلی کا استعمال

پانی کا استعمال

ڈیٹا سینٹرز کو ٹھنڈا کرنے کے لیے پانی کی بڑی مقدار

الیکٹرانک فضلہ

ہارڈویئر کی اپ گریڈ سے الیکٹرانک فضلہ پیدا ہوتا ہے

کاربن اخراج کے علاوہ، AI پانی کو ٹھنڈا کرنے کے لیے بھی زیادہ استعمال کر سکتی ہے اور ہارڈویئر کی تیز اپ گریڈنگ سے الیکٹرانک فضلہ پیدا ہوتا ہے۔ اگر اس پر قابو نہ پایا گیا تو AI کا ماحولیاتی اثر عالمی پائیداری کی کوششوں کو نقصان پہنچا سکتا ہے۔

یہ خطرہ AI کو زیادہ توانائی مؤثر بنانے اور صاف توانائی کے ذرائع استعمال کرنے کی ضرورت کو ظاہر کرتا ہے۔ محققین گرین AI تکنیکیں تیار کر رہے ہیں تاکہ توانائی کی کھپت کم کی جا سکے، اور کچھ کمپنیوں نے AI کے کاربن اخراج کی تلافی کا وعدہ کیا ہے۔ بہرحال، یہ ایک فوری تشویش ہے کہ AI کی دوڑ ماحولیاتی قیمت کے ساتھ آ سکتی ہے۔ تکنیکی ترقی اور ماحولیاتی ذمہ داری کے درمیان توازن قائم کرنا ایک اور چیلنج ہے جسے معاشرہ AI کے ہر شعبے میں شامل کرتے ہوئے حل کرے گا۔

AI کا ماحولیاتی اثر
AI کا ماحولیاتی اثر

وجودی اور طویل مدتی خطرات

فوری خطرات کے علاوہ، کچھ ماہرین AI کے مزید قیاسی، طویل مدتی خطرات کی وارننگ دیتے ہیں – جن میں ایک ایسا اعلیٰ AI شامل ہے جو انسانی کنٹرول سے باہر ہو جائے۔ آج کے AI نظام اپنی صلاحیتوں میں محدود ہیں، لیکن محققین زیادہ عام AI کی طرف کام کر رہے ہیں جو ممکنہ طور پر کئی شعبوں میں انسانوں سے بہتر ہو سکتا ہے۔

یہ پیچیدہ سوالات اٹھاتا ہے: اگر AI بہت زیادہ ذہین یا خودمختار ہو جائے، کیا یہ ایسے طریقوں سے عمل کر سکتا ہے جو انسانیت کے وجود کو خطرے میں ڈالیں؟ اگرچہ یہ سائنس فکشن لگتا ہے، ٹیک کمیونٹی کے نمایاں افراد نے "روگ AI" منظرناموں پر تشویش ظاہر کی ہے، اور حکومتیں اس بحث کو سنجیدگی سے لے رہی ہیں۔

حکومتی ردعمل: 2023 میں، برطانیہ نے عالمی AI سیفٹی سمٹ کی میزبانی کی تاکہ فرنٹیئر AI خطرات پر بات چیت کی جا سکے، جو طویل مدتی AI حفاظت کے بارے میں سنجیدہ ادارہ جاتی تشویش کو ظاہر کرتا ہے۔

ماہرین کے مختلف نظریات ہیں کہ انسانیت AI پر کنٹرول کھونے کے خطرے کے حوالے سے جو تباہ کن نتائج کا باعث بن سکتا ہے۔

— بین الاقوامی AI سیفٹی رپورٹ

سائنسدانوں کا اتفاق رائے یکساں نہیں ہے – کچھ کا ماننا ہے کہ سپر ذہین AI دہائیوں دور ہے یا اسے انسانی اقدار کے مطابق رکھا جا سکتا ہے، جبکہ دیگر ایک چھوٹے مگر غیر صفر امکان کو تباہ کن نتائج کے لیے دیکھتے ہیں۔

ممکنہ وجودی خطرے کے منظرنامے

  • AI کے اہداف انسانی اقدار سے میل نہ کھانا
  • AI صلاحیتوں کی تیز، بے قابو ترقی
  • اہم فیصلوں میں انسانی اختیار کا نقصان
  • AI نظاموں کا نقصان دہ مقاصد کے لیے اصلاح کرنا

طویل مدتی حفاظتی اقدامات

  • AI اہداف کو انسانی اقدار کے مطابق رکھنے کی تحقیق
  • اعلیٰ خطرے والی AI تحقیق پر بین الاقوامی معاہدے
  • AI کی صلاحیت بڑھنے کے ساتھ انسانی نگرانی برقرار رکھنا
  • عالمی AI گورننس کے فریم ورک قائم کرنا

خلاصہ یہ ہے کہ AI سے وجودی خطرہ، چاہے دور ہو، بالکل مسترد نہیں کیا جا سکتا۔ ایسا نتیجہ AI کے اپنے اہداف کو انسانی فلاح و بہبود کے خلاف حاصل کرنے کا باعث بن سکتا ہے (کلاسیکی مثال وہ AI ہے جو اگر غلط پروگرام کیا جائے تو بڑے پیمانے پر نقصان دہ کام کرنے کا فیصلہ کر لے کیونکہ اس میں عام فہم یا اخلاقی پابندیاں نہیں ہوتیں)۔

اگرچہ آج کوئی بھی AI اس سطح کی خودمختاری نہیں رکھتا، AI کی ترقی کی رفتار تیز اور غیر متوقع ہے، جو خود ایک خطرہ ہے۔

طویل مدتی خطرات کے لیے تیاری کا مطلب ہے AI اہداف کو انسانی اقدار کے مطابق رکھنے کی تحقیق میں سرمایہ کاری کرنا، اعلیٰ خطرے والی AI تحقیق پر بین الاقوامی معاہدے قائم کرنا (جیسے نیوکلیئر یا حیاتیاتی ہتھیاروں کے معاہدے)، اور AI نظاموں کی صلاحیت بڑھنے کے ساتھ انسانی نگرانی برقرار رکھنا۔

AI کا مستقبل بے پناہ وعدے رکھتا ہے، لیکن ساتھ ہی غیر یقینی صورتحال بھی – اور دانشمندی یہی تقاضا کرتی ہے کہ ہم کم امکانات والے مگر بڑے اثر والے خطرات کو بھی اپنی طویل مدتی منصوبہ بندی میں شامل کریں۔

AI میں وجودی اور طویل مدتی خطرات
AI میں وجودی اور طویل مدتی خطرات

AI کے مستقبل کی ذمہ داری سے رہنمائی

AI کو اکثر ایک طاقتور انجن سے تشبیہ دی جاتی ہے جو انسانیت کو آگے بڑھا سکتا ہے – لیکن بغیر بریک اور سٹیئرنگ کے، وہ انجن راستہ بھٹک سکتا ہے۔ جیسا کہ ہم نے دیکھا، AI کے استعمال کے خطرات متعدد پہلوؤں پر مشتمل ہیں: فوری مسائل جیسے تعصبی الگورتھمز، جعلی خبریں، پرائیویسی کی خلاف ورزیاں، اور ملازمتوں میں تبدیلی، سے لے کر وسیع سماجی چیلنجز جیسے سیکیورٹی خطرات، "بلیک باکس" فیصلے، بڑی ٹیک کمپنیوں کی اجارہ داری، ماحولیاتی دباؤ، اور حتیٰ کہ سپر ذہین AI کے کنٹرول کھونے کا دور دراز خوفناک امکان۔

اہم نوٹ: یہ خطرات اس بات کا مطلب نہیں کہ ہمیں AI کی ترقی روک دینی چاہیے؛ بلکہ یہ ذمہ دار AI گورننس اور اخلاقی طریقوں کی فوری ضرورت کو اجاگر کرتے ہیں۔

حکومتیں، بین الاقوامی تنظیمیں، صنعت کے رہنما، اور محققین بڑھتی ہوئی تعاون کر رہے ہیں تاکہ ان خدشات کو حل کیا جا سکے – مثلاً، درج ذیل فریم ورکس کے ذریعے:

  • امریکہ کا NIST AI رسک مینجمنٹ فریم ورک (AI کی قابل اعتمادیت کو بہتر بنانے کے لیے)
  • یونیسکو کی عالمی AI اخلاقی سفارشات
  • یورپی یونین کا AI ایکٹ

ایسے اقدامات کا مقصد AI کے فوائد کو زیادہ سے زیادہ اور نقصانات کو کم سے کم کرنا ہے، تاکہ AI انسانیت کی خدمت کرے نہ کہ اس کے برعکس۔

آگے کا راستہ

AI کے خطرات کو سمجھنا انہیں سنبھالنے کا پہلا قدم ہے۔ معلومات میں رہ کر اور AI کی ترقی اور استعمال میں شامل ہو کر، ہم اس تبدیلی لانے والی ٹیکنالوجی کو سب کے لیے محفوظ، منصفانہ، اور فائدہ مند سمت میں لے جا سکتے ہیں۔

مزید متعلقہ مضامین دریافت کریں
96 مضامین
روزی ہا Inviai کی مصنفہ ہیں، جو مصنوعی ذہانت کے بارے میں معلومات اور حل فراہم کرنے میں مہارت رکھتی ہیں۔ تحقیق اور AI کو کاروبار، مواد کی تخلیق اور خودکار نظامات جیسے مختلف شعبوں میں نافذ کرنے کے تجربے کے ساتھ، روزی ہا آسان فہم، عملی اور متاثر کن مضامین پیش کرتی ہیں۔ روزی ہا کا مشن ہے کہ وہ ہر فرد کو AI کے مؤثر استعمال میں مدد دیں تاکہ پیداواریت میں اضافہ اور تخلیقی صلاحیتوں کو وسعت دی جا سکے۔
تلاش کریں