مصنوعی ذہانت (AI) سے مراد کمپیوٹر سسٹمز ہیں جو انسانی ذہانت کی نقل کرتے ہیں – مثلاً ایسے پروگرام جو تصاویر کو پہچان سکتے ہیں، زبان کو سمجھ سکتے ہیں، یا فیصلے کر سکتے ہیں۔ روزمرہ زندگی میں، AI ایسے آلات کو طاقت دیتا ہے جیسے اسمارٹ فونز کے وائس اسسٹنٹس، سوشل میڈیا پر سفارشاتی نظام، اور یہاں تک کہ جدید چیٹ بوٹس جو متن لکھتے ہیں۔

AI کے پاس بہت سے شعبوں کو بہتر بنانے کی زبردست صلاحیت ہے، لیکن اس کے ساتھ کئی خدشات بھی وابستہ ہیں۔

تو، کیا AI خطرناک ہے؟ یہ مضمون دونوں پہلوؤں کا جائزہ لے گا: AI کے حقیقی فوائد اور ماہرین کی جانب سے اجاگر کیے گئے خطرات۔

AI کے حقیقی دنیا کے فوائد

تصویر: روبوٹس اور ایک شخص کے دوستانہ تعاون کی تصویر AI کی انسانوں کی مدد کرنے کی علامت ہے۔ AI پہلے ہی کئی مددگار ایپلیکیشنز میں شامل ہے۔

مثال کے طور پر، یونیسکو نے نوٹ کیا ہے کہ AI نے دنیا بھر میں "بہت سے مواقع پیدا کیے ہیں" – جیسے تیز تر طبی تشخیص سے لے کر سوشل میڈیا کے ذریعے بہتر رابطہ کاری اور بورنگ کاموں کی خودکاری تک۔

یورپی یونین بھی اس بات پر زور دیتا ہے کہ "قابل اعتماد AI بہت سے فوائد لا سکتا ہے" جیسے کہ بہتر صحت کی سہولیات، محفوظ نقل و حمل، اور صنعت اور توانائی کا زیادہ مؤثر استعمال۔ طب میں، عالمی ادارہ صحت رپورٹ کرتا ہے کہ AI تشخیص، دوائی کی تیاری اور وبائی امراض کے ردعمل میں استعمال ہو رہا ہے، اور ممالک کو ترغیب دیتا ہے کہ یہ جدتیں سب کے لیے فروغ دیں۔

معاشی ماہرین AI کی تیزی سے پھیلاؤ کو ماضی کی ٹیکنالوجی انقلابات سے تشبیہ دیتے ہیں۔

مثال کے طور پر، امریکی حکومت زور دیتی ہے کہ "AI میں غیر معمولی صلاحیت ہے، جس میں وعدہ اور خطرہ دونوں شامل ہیں"، یعنی ہمیں اس کی طاقت کو موسمیاتی تبدیلی یا بیماری جیسے مسائل حل کرنے کے لیے استعمال کرنا چاہیے، اور ساتھ ہی خطرات کا خیال رکھنا چاہیے۔

AI کے اہم فوائد میں شامل ہیں:

  • بہتر صحت کی سہولیات: AI سسٹمز ایکسرے، MRI اور مریض کے ڈیٹا کا تجزیہ انسانوں سے تیزی سے کر سکتے ہیں، جو بیماری کی جلد شناخت اور ذاتی علاج میں مدد دیتے ہیں۔ مثال کے طور پر، AI کی مدد سے تصویری تجزیہ ایسے ٹیومرز تلاش کر سکتا ہے جو ڈاکٹروں کی نظر سے چھپ جاتے ہیں۔
  • زیادہ کارکردگی: کارخانوں، دفاتر اور خدمات میں خودکار عمل پیداوار کو بڑھاتے ہیں۔ جیسا کہ یورپی یونین کہتا ہے، AI سے چلنے والی خودکاری "زیادہ مؤثر پیداوار" اور حتیٰ کہ زیادہ ذہین توانائی کے نیٹ ورکس کا باعث بنتی ہے۔
    روبوٹس اور سافٹ ویئر بار بار ہونے والے کام سنبھالتے ہیں تاکہ انسان تخلیقی یا پیچیدہ کاموں پر توجہ دے سکیں۔
  • محفوظ نقل و حمل اور خدمات: خودکار گاڑیوں کی ٹیکنالوجی اور ٹریفک مینجمنٹ AI حادثات اور بھیڑ کو کم کرنے کی کوشش کرتے ہیں۔ ذہین AI آفات کی وارننگ سسٹمز کو بہتر بنا سکتا ہے اور لاجسٹکس کو بہتر بنا کر سفر اور شپنگ کو محفوظ بناتا ہے۔
  • سائنسی اور ماحولیاتی مدد: محققین AI کا استعمال موسمی ماڈلز اور جینیاتی ڈیٹا کے تجزیے کے لیے کرتے ہیں۔ یہ بڑے مسائل جیسے موسمیاتی تبدیلی سے نمٹنے میں مدد دیتا ہے: یونیسکو رپورٹ کرتا ہے کہ AI کے ڈیزائن میں چھوٹے چھوٹے تبدیلیاں اس کی توانائی کی کھپت کو نمایاں طور پر کم کر سکتی ہیں، جس سے یہ ایک پائیدار موسمیاتی آلہ بنتا ہے۔
  • تعلیم اور رسائی: AI سے چلنے والے ٹیچرز ہر طالب علم کی تعلیم کو ذاتی نوعیت دے سکتے ہیں، اور آواز کی شناخت یا ترجمہ کے آلات معذور افراد کی مدد کرتے ہیں۔ برٹانیکا نوٹ کرتا ہے کہ AI "محروم گروہوں کو رسائی فراہم کر کے مدد دیتا ہے" (مثلاً بصری معذور افراد کے لیے پڑھنے والے معاون)۔

یہ مثالیں ظاہر کرتی ہیں کہ AI صرف سائنس فکشن نہیں ہے – یہ آج ہی حقیقی قدر فراہم کر رہا ہے۔

AI کے حقیقی دنیا کے فوائد

AI کے ممکنہ خطرات اور نقصانات

تصویر: "روبوٹ" کے الفاظ کی سٹریٹ آرٹ AI کے نامعلوم اثرات کی وارننگ دیتی ہے۔ اپنی امیدوں کے باوجود، بہت سے ماہرین خبردار کرتے ہیں کہ AI غلط استعمال یا بغیر نگرانی کے خطرناک ہو سکتا ہے۔ ایک بڑا مسئلہ تعصب اور امتیاز ہے۔ چونکہ AI موجودہ ڈیٹا سے سیکھتا ہے، اس لیے یہ انسانی تعصبات کو بھی اپنا سکتا ہے۔

یونیسکو خبردار کرتا ہے کہ سخت اخلاقیات کے بغیر، AI "حقیقی دنیا کے تعصبات اور امتیاز کو دہرانے کا خطرہ رکھتا ہے، جو تقسیم کو بڑھاوا دیتا ہے اور بنیادی انسانی حقوق اور آزادیوں کو خطرے میں ڈال سکتا ہے"۔ درحقیقت، مطالعات نے دکھایا ہے کہ چہرے کی شناخت اکثر خواتین یا رنگین لوگوں کی غلط شناخت کرتی ہے، اور بھرتی کے الگورتھمز بعض جنسوں کو ترجیح دے سکتے ہیں۔

برٹانیکا بھی نوٹ کرتا ہے کہ AI "نسلی اقلیتوں کو نقصان پہنچا سکتا ہے کیونکہ یہ نسل پرستی کو دہراتا اور بڑھاتا ہے"۔

دیگر خطرات میں شامل ہیں:

  • رازداری اور نگرانی: AI سسٹمز کو اکثر بہت زیادہ ذاتی ڈیٹا (سوشل میڈیا پوسٹس، صحت کے ریکارڈز وغیرہ) کی ضرورت ہوتی ہے۔ اس سے غلط استعمال کا خطرہ بڑھ جاتا ہے۔ اگر حکومتیں یا کمپنیاں آپ کے ڈیٹا کو بغیر اجازت کے AI کے ذریعے تجزیہ کریں تو یہ مداخلت کرنے والی نگرانی کا باعث بن سکتا ہے۔

    برٹانیکا AI سے متعلق "خطرناک رازداری کے خطرات" کی وارننگ دیتا ہے۔ مثال کے طور پر، AI کا ایک متنازعہ استعمال جسے سوشل کریڈٹ اسکورنگ کہا جاتا ہے – جہاں شہریوں کو الگورتھمز کے ذریعے درجہ بندی کیا جاتا ہے – یورپی یونین نے اسے "ناقابل قبول" قرار دے کر ممنوع قرار دیا ہے۔
    یہاں تک کہ معروف چیٹ بوٹس نے بھی تشویش پیدا کی ہے: 2023 میں اٹلی نے عارضی طور پر ڈیٹا پرائیویسی کے مسائل کی وجہ سے ChatGPT کو بلاک کر دیا تھا۔

  • غلط معلومات اور ڈیپ فیکس: AI حقیقت کے قریب جعلی متن، تصاویر یا ویڈیوز بنا سکتا ہے۔ اس سے ڈیپ فیکس بنانا آسان ہو جاتا ہے – جعلی مشہور شخصیات کی ویڈیوز یا جھوٹی خبریں۔

    برٹانیکا بتاتا ہے کہ AI "سیاسی اور خطرناک غلط معلومات پھیلا سکتا ہے"۔ ماہرین نے خبردار کیا ہے کہ ایسے جعلی مواد کو انتخابات یا عوامی رائے کو متاثر کرنے کے لیے استعمال کیا جا سکتا ہے۔

    ایک واقعے میں، دنیا کے رہنماؤں کی AI سے بنائی گئی تصاویر جھوٹے خبری سرخیاں شیئر کرتی ہوئی وائرل ہوئیں، جنہیں بعد میں غلط ثابت کیا گیا۔ سائنسدانوں کا کہنا ہے کہ بغیر ضابطہ بندی کے، AI سے پیدا ہونے والی غلط معلومات بڑھ سکتی ہیں (مثلاً جعلی تقاریر یا ترمیم شدہ تصاویر جن پر موجودہ قوانین قابو نہیں پاسکتے)۔

  • ملازمتوں کا نقصان اور معاشی خلل: کاموں کو خودکار بنا کر، AI کام کی جگہ کو بدل دے گا۔ بین الاقوامی مالیاتی فنڈ رپورٹ کرتا ہے کہ تقریباً دنیا بھر میں 40% اور ترقی یافتہ ممالک میں 60% ملازمتیں AI خودکاری کے لیے "خطرے میں" ہیں۔ اس میں صرف فیکٹری کا کام نہیں بلکہ درمیانے طبقے کی ملازمتیں جیسے اکاؤنٹنگ یا تحریر بھی شامل ہیں۔
    اگرچہ AI پیداوار بڑھا سکتا ہے (جو طویل مدت میں اجرتوں میں اضافہ کرے گا)، بہت سے کارکنوں کو نئی تربیت کی ضرورت پڑ سکتی ہے یا قلیل مدت میں بے روزگاری کا سامنا کرنا پڑ سکتا ہے۔
    ٹیکنالوجی کے رہنما اس تشویش کو تسلیم کرتے ہیں: یہاں تک کہ مائیکروسافٹ کے CEO نے کہا کہ AI اچانک ماہر پیشہ ور افراد کی جگہ لے سکتا ہے۔

  • سیکیورٹی اور نقصان دہ استعمال: کسی بھی ٹیکنالوجی کی طرح، AI کو نقصان پہنچانے کے لیے بھی استعمال کیا جا سکتا ہے۔ سائبر مجرم پہلے ہی AI کا استعمال کر کے قائل کرنے والے فشنگ ای میلز بناتے ہیں یا سسٹمز میں کمزوری تلاش کرتے ہیں۔

    فوجی ماہرین خودکار ہتھیاروں کے بارے میں فکر مند ہیں: ایسے ڈرون یا روبوٹس جو بغیر انسانی اجازت کے ہدف منتخب کرتے ہیں۔
    AI محققین کی ایک حالیہ رپورٹ واضح طور پر خبردار کرتی ہے کہ ہمارے پاس ایسے ادارے نہیں ہیں جو "لاپرواہ... عناصر کو روک سکیں جو خطرناک طریقوں سے صلاحیتیں استعمال یا تلاش کر سکتے ہیں"، جیسے خودکار حملہ آور نظام۔

    دوسرے الفاظ میں، ایک AI سسٹم جس کا جسمانی کنٹرول ہو (جیسے ہتھیار) خاص طور پر خطرناک ہو سکتا ہے اگر وہ بے قابو ہو جائے یا بدنیتی سے پروگرام کیا جائے۔

  • انسانی کنٹرول کا نقصان: کچھ مفکرین کہتے ہیں کہ اگر AI آج سے کہیں زیادہ طاقتور ہو جائے، تو یہ غیر متوقع طریقوں سے کام کر سکتا ہے۔ موجودہ AI خود آگاہ یا شعور نہیں رکھتا، لیکن مستقبل کا جنرل AI (AGI) ممکنہ طور پر ایسے مقاصد حاصل کر سکتا ہے جو انسانی اقدار سے میل نہیں کھاتے۔

    نمایاں AI سائنسدانوں نے حال ہی میں خبردار کیا ہے کہ "انتہائی طاقتور جنرل AI سسٹمز" قریبی مستقبل میں ظاہر ہو سکتے ہیں اگر ہم تیاری نہ کریں۔

    نوبل انعام یافتہ جیوفری ہنٹن اور دیگر ماہرین نے بھی اس خطرے کی نشاندہی کی ہے کہ اگر اعلیٰ درجے کا AI ہماری ضروریات کے مطابق نہ ہو تو یہ انسانیت کو نقصان پہنچا سکتا ہے۔ اگرچہ یہ خطرہ غیر یقینی ہے، لیکن اس نے احتیاط کی اپیلوں کو بڑھاوا دیا ہے۔

  • توانائی اور ماحولیاتی اثرات: بڑے AI ماڈلز کی تربیت اور چلانا بہت زیادہ بجلی استعمال کرتا ہے۔ یونیسکو رپورٹ کرتا ہے کہ جنریٹو AI کی سالانہ توانائی کی کھپت اب ایک چھوٹے افریقی ملک کے برابر ہے – اور یہ تیزی سے بڑھ رہی ہے۔

    یہ موسمیاتی تبدیلی کو مزید خراب کر سکتا ہے جب تک کہ ہم ماحول دوست طریقے استعمال نہ کریں۔

    خوش آئند بات یہ ہے کہ محققین حل تلاش کر رہے ہیں: یونیسکو کی ایک تحقیق بتاتی ہے کہ مخصوص کاموں کے لیے چھوٹے، مؤثر ماڈلز استعمال کرنے سے AI کی توانائی کی کھپت میں 90% تک کمی کی جا سکتی ہے بغیر درستگی کھوئے۔

خلاصہ یہ کہ، آج کے AI کے حقیقی خطرات زیادہ تر اس بات سے آتے ہیں کہ لوگ اسے کیسے استعمال کرتے ہیں۔ اگر AI کو احتیاط سے سنبھالا جائے تو اس کے فوائد (صحت، سہولت، حفاظت) بہت زیادہ ہیں۔

لیکن اگر اسے بغیر نگرانی چھوڑ دیا جائے تو AI تعصب، جرائم، اور حادثات کو بڑھا سکتا ہے۔

ان خطرات کا مشترکہ عنصر کنٹرول یا نگرانی کی کمی ہے: AI کے آلات طاقتور اور تیز ہیں، اس لیے غلطیاں یا غلط استعمال بڑے پیمانے پر ہو سکتے ہیں جب تک کہ ہم مداخلت نہ کریں۔

AI کے ممکنہ خطرات اور نقصانات

ماہرین اور حکام کیا کہتے ہیں

ان مسائل کے پیش نظر، بہت سے رہنما اور محققین نے آواز اٹھائی ہے۔ حالیہ برسوں میں AI ماہرین کا ایک بڑا اتفاق رائے قائم ہوا ہے۔

2024 میں، 25 اعلیٰ AI سائنسدانوں (آکسفورڈ، برکلے، ٹورنگ ایوارڈ یافتگان وغیرہ) نے ایک اتفاقی بیان شائع کیا جس میں فوری کارروائی کی اپیل کی گئی۔

انہوں نے عالمی حکومتوں کو خبردار کیا کہ اگر ہم AI کے خطرات کو کم سمجھیں تو نتائج تباہ کن ہو سکتے ہیں، اور AI کی حفاظت کی تحقیق کے لیے فنڈنگ اور طاقتور AI کی نگرانی کے لیے ریگولیٹری ادارے بنانے کی ضرورت پر زور دیا۔

انہوں نے کہا کہ AI کی ترقی "حفاظت کو ثانوی خیال بنا کر" تیزی سے آگے بڑھ رہی ہے، اور فی الحال ہمارے پاس ایسے ادارے نہیں جو بدعنوان ایپلیکیشنز کو روک سکیں۔

ٹیکنالوجی کے رہنما بھی اس احتیاط کی تائید کرتے ہیں۔ OpenAI کے CEO سیم آلٹ مین – جن کی کمپنی نے ChatGPT بنایا – نے The New York Times کو بتایا کہ جدید AI بنانا ڈیجیٹل دور کا "مین ہٹن پروجیکٹ" ہے۔

انہوں نے اعتراف کیا کہ وہی آلات جو مضامین یا کوڈ لکھ سکتے ہیں، غلط استعمال، شدید حادثات اور معاشرتی انتشار کا باعث بھی بن سکتے ہیں اگر احتیاط سے نہ سنبھالا جائے۔

2023 کے آخر میں، 1,000 سے زائد AI پیشہ ور افراد (جن میں ایلون مسک، ایپل کے شریک بانی اسٹیو ووزنیاک، اور کئی AI محققین شامل ہیں) نے اگلی نسل کے AI ماڈلز کی تربیت میں وقفہ کی اپیل کرتے ہوئے ایک کھلا خط پر دستخط کیے۔

انہوں نے خبردار کیا کہ ہم ایک "بے قابو دوڑ" میں ہیں جس میں زیادہ طاقتور AI بنایا جا رہا ہے جسے اس کے خالق بھی "سمجھ، پیش گوئی یا قابل اعتماد کنٹرول نہیں کر سکتے"۔

عوامی فورمز میں، ماہرین نے مخصوص خطرات پر زور دیا ہے۔ گوگل ڈیپ مائنڈ کے CEO ڈیمس ہسابیس نے کہا کہ سب سے بڑا خطرہ بے روزگاری نہیں بلکہ غلط استعمال ہے: کوئی سائبر مجرم یا بدعنوان ریاست AI کو معاشرے کو نقصان پہنچانے کے لیے استعمال کر سکتی ہے۔

انہوں نے نشاندہی کی کہ بہت جلد AI انسانی ذہانت کے برابر یا اس سے آگے جا سکتا ہے، اور "ایک برا عنصر انہی ٹیکنالوجیز کو نقصان دہ مقاصد کے لیے دوبارہ استعمال کر سکتا ہے"۔

دوسرے الفاظ میں، چاہے ہم ملازمتوں کے نقصان کو سنبھال لیں، ہمیں AI کے آلات کو غلط ہاتھوں میں جانے سے روکنا ہوگا۔

حکومتیں اور بین الاقوامی ادارے بھی اس پر توجہ دے رہے ہیں۔ وائٹ ہاؤس (USA) نے 2023 میں ایک ایگزیکٹو آرڈر جاری کیا جس میں کہا گیا کہ AI "غیر معمولی صلاحیت رکھتا ہے، جس میں وعدہ اور خطرہ دونوں شامل ہیں" اور اس کے وسیع خطرات کو کم کرنے کے لیے "ذمہ دار AI کے استعمال" کی ضرورت پر زور دیا۔

یورپی یونین نے دنیا کا پہلا AI ایکٹ (2024 سے نافذ العمل) پاس کیا، جو خطرناک طریقوں جیسے حکومتی سوشل اسکورنگ پر پابندی لگاتا ہے اور صحت، قانون نافذ کرنے والے اداروں وغیرہ میں اعلیٰ خطرے والے AI کے لیے سخت جانچ پڑتال کا تقاضا کرتا ہے۔

یونیسکو (تعلیم اور ثقافت کے لیے اقوام متحدہ کا ادارہ) نے عالمی AI اخلاقیات کی سفارشات شائع کی ہیں جو AI میں انصاف، شفافیت اور انسانی حقوق کے تحفظ پر زور دیتی ہیں۔

یہاں تک کہ سائنس و پالیسی تنظیمیں جیسے NIST (امریکی قومی معیارات کا ادارہ) نے AI رسک مینجمنٹ فریم ورک جاری کیا ہے تاکہ کمپنیوں کو قابل اعتماد AI بنانے میں رہنمائی فراہم کی جا سکے۔

یہ تمام آوازیں ایک بات پر متفق ہیں: AI خود بخود نہیں رکے گا۔ ہمیں ضرور حفاظتی اقدامات تیار کرنے ہوں گے۔ اس میں تکنیکی اصلاحات (تعصب کے آڈٹ، سیکیورٹی ٹیسٹنگ) اور نئے قوانین یا نگرانی کے ادارے شامل ہیں۔

مثال کے طور پر، دنیا بھر کے قانون ساز AI حفاظتی بورڈز پر غور کر رہے ہیں، جو نیوکلیئر ٹیکنالوجی کے لیے موجود ہیں۔

مقصد جدت کو روکنا نہیں بلکہ اس بات کو یقینی بنانا ہے کہ یہ محتاط رہنما اصولوں کے تحت ہو۔

ماہرین اور حکام کیا کہتے ہیں

حفاظتی اقدامات اور ضابطہ کاری

خوش قسمتی سے، بہت سے حل پہلے ہی زیرِ عمل ہیں۔ کلیدی خیال "ڈیزائن کے ذریعے AI کی حفاظت" ہے۔ کمپنیاں اخلاقی اصولوں کو AI کی ترقی میں شامل کر رہی ہیں۔

مثال کے طور پر، AI لیبارٹریز ماڈلز کو ریلیز سے پہلے تعصب کے لیے ٹیسٹ کرتی ہیں اور مواد کے فلٹرز شامل کرتی ہیں تاکہ غیر مناسب یا جھوٹے نتائج کو روکا جا سکے۔ حکومتیں اور ادارے اس کو قانون سازی میں شامل کر رہے ہیں۔

یورپی یونین کا AI ایکٹ، مثلاً، کچھ خطرناک استعمال کو مکمل طور پر ممنوع قرار دیتا ہے اور دیگر کو "اعلیٰ خطرہ" کے طور پر درجہ بندی کرتا ہے (جس پر آڈٹ لازم ہیں)۔

اسی طرح، یونیسکو کا AI اخلاقی فریم ورک انصاف کی جانچ، سائبر سیکیورٹی کے تحفظات، اور شکایات کے قابل رسائی عمل کی سفارش کرتا ہے۔

عملی سطح پر، معیارات بنانے والے ادارے رہنما اصول جاری کر رہے ہیں۔

ہم نے پہلے ذکر کیا کہ امریکی NIST فریم ورک تنظیموں کو AI کے خطرات کا جائزہ لینے اور کم کرنے کے لیے رضاکارانہ معیارات فراہم کرتا ہے۔

بین الاقوامی سطح پر، OECD اور اقوام متحدہ جیسے گروپ AI کے اصولوں پر کام کر رہے ہیں (بہت سے ممالک نے ان پر دستخط کیے ہیں)۔

یہاں تک کہ کمپنیاں اور یونیورسٹیاں AI حفاظتی ادارے اور اتحاد بنا رہی ہیں تاکہ طویل مدتی خطرات پر تحقیق کی جا سکے۔

مزید برآں، موجودہ ضابطہ کاری مخصوص نقصانات کو بھی نشانہ بنا رہی ہے۔

مثال کے طور پر، صارفین کے تحفظ کے قوانین AI پر لاگو کیے جا رہے ہیں۔

میٹا کے اندرونی دستاویزات نے ظاہر کیا کہ AI چیٹ بوٹس بچوں کے ساتھ غیر مناسب بات چیت کر رہے تھے، جس پر ریگولیٹرز نے سخت ردعمل دیا (میٹا کے اس آلے کو موجودہ بچوں کے تحفظ کے قوانین کے تحت اجازت نہیں دی گئی)۔

حکام نفرت انگیز تقریر، کاپی رائٹ اور پرائیویسی کے قوانین کو اپ ڈیٹ کرنے کی کوشش کر رہے ہیں تاکہ AI سے پیدا شدہ مواد کو شامل کیا جا سکے۔

جیسا کہ نیوزی لینڈ کے ایک ماہر نے کہا، بہت سے موجودہ قوانین "جنریٹو AI کو مدنظر رکھ کر نہیں بنائے گئے تھے"، اس لیے قانون ساز اس کے مطابق خود کو ڈھال رہے ہیں۔

مجموعی رجحان واضح ہے: AI کو دیگر دوہری استعمال والی ٹیکنالوجیز کی طرح سمجھا جا رہا ہے۔

جیسے گاڑیوں کے لیے ٹریفک قوانین یا کیمیکلز کے لیے حفاظتی معیارات ہیں، ویسے ہی معاشرہ AI کے لیے محفوظ حدود بنانے لگا ہے۔

ان میں شامل ہیں: AI کے خطرات پر جاری تحقیق، سیکیورٹی پر عوامی و نجی تعاون، ڈیپ فیکس کے بارے میں تعلیمی مہمات، اور یہاں تک کہ ووٹنگ جہاں شہریوں سے پوچھا جاتا ہے کہ وہ مشینوں کو کتنی خودمختاری دینا چاہتے ہیں۔

>>>مزید جانیں:

کیا مصنوعی ذہانت انسان کی جگہ لے سکتی ہے؟

کیا مصنوعی ذہانت انسانوں کی طرح سوچتی ہے؟

AI کے حفاظتی اقدامات اور ضابطہ کاری


تو، کیا AI خطرناک ہے؟ جواب پیچیدہ ہے۔ AI ذاتی طور پر برا نہیں ہے – یہ انسانوں کا بنایا ہوا ایک آلہ ہے۔

آج کے متعدد عملی شکلوں میں، اس نے طب، تعلیم، صنعت اور دیگر شعبوں میں زبردست فوائد دیے ہیں (جیسا کہ یونیسکو اور یورپی یونین جیسے ادارے اجاگر کرتے ہیں)۔

اسی وقت، تقریباً سب متفق ہیں کہ AI خطرناک ہو سکتا ہے اگر اس کی طاقت کا غلط استعمال کیا جائے یا اسے بغیر رہنمائی کے چھوڑ دیا جائے۔

عام خدشات میں رازداری کی خلاف ورزیاں، تعصب، غلط معلومات، ملازمتوں میں تبدیلی، اور فرضی خطرہ یعنی بے قابو سپر انٹیلی جنس شامل ہیں۔

نوجوان جو AI کے بارے میں سیکھ رہے ہیں انہیں دونوں پہلوؤں پر توجہ دینی چاہیے۔ یہ سمجھداری ہے کہ حقیقی خطرات سے آگاہ رہیں: مثلاً AI پر اندھا اعتماد نہ کریں یا بغیر احتیاط کے ذاتی معلومات شیئر نہ کریں۔

لیکن یہ بھی ضروری ہے کہ دیکھا جائے کہ ماہرین اور حکومتیں AI کو محفوظ بنانے کے لیے فعال کام کر رہی ہیں – قوانین (جیسے یورپی یونین کا AI ایکٹ)، رہنما اصول (جیسے یونیسکو کی اخلاقی سفارشات) اور ٹیکنالوجیز (جیسے تعصب کی شناخت) تیار کر کے مسائل کو جلد پکڑنے کے لیے۔

مختصراً، AI کسی بھی طاقتور ٹیکنالوجی کی طرح ہے: اگر ذمہ داری سے استعمال کیا جائے تو یہ بہت فائدہ مند ہے، اور غلط استعمال سے نقصان دہ ہو سکتا ہے۔

سائنسدانوں اور پالیسی سازوں کے درمیان اتفاق رائے یہ ہے کہ ہمیں AI سے نہ تو خوفزدہ ہونا چاہیے اور نہ ہی اسے نظر انداز کرنا چاہیے، بلکہ اس کے مستقبل کی تشکیل میں باخبر اور شامل رہنا چاہیے۔

صحیح "محفوظ حدود" کے ساتھ – اخلاقی AI کی ترقی، مضبوط ضابطہ کاری اور عوامی آگاہی – ہم AI کو محفوظ سمت میں لے جا سکتے ہیں اور یقینی بنا سکتے ہیں کہ یہ انسانیت کے لیے فائدہ مند رہے بغیر خطرناک بنے۔

خارجی حوالہ جات
یہ مضمون درج ذیل خارجی ذرائع کے حوالے سے مرتب کیا گیا ہے: