کیا مصنوعی ذہانت خطرناک ہے؟

مصنوعی ذہانت کسی بھی طاقتور ٹیکنالوجی کی طرح ہے: اگر ذمہ داری سے استعمال کی جائے تو یہ بہت فائدہ مند ہو سکتی ہے، اور غلط استعمال سے نقصان دہ بھی۔

مصنوعی ذہانت (AI) سے مراد کمپیوٹر سسٹمز ہیں جو انسانی ذہانت کی نقل کرتے ہیں – مثلاً ایسے پروگرام جو تصاویر کو پہچان سکتے ہیں، زبان کو سمجھ سکتے ہیں، یا فیصلے کر سکتے ہیں۔ روزمرہ زندگی میں، AI ایسے آلات کو طاقت دیتا ہے جیسے اسمارٹ فونز پر وائس اسسٹنٹس، سوشل میڈیا پر سفارشاتی نظام، اور یہاں تک کہ جدید چیٹ بوٹس جو متن لکھتے ہیں۔

AI کے پاس بہت سے شعبوں کو بہتر بنانے کی صلاحیت ہے، لیکن یہ کئی خدشات بھی پیدا کرتا ہے۔

تو، کیا مصنوعی ذہانت خطرناک ہے؟ یہ مضمون دونوں پہلوؤں کا جائزہ لے گا: AI کے حقیقی فوائد اور ماہرین کی جانب سے اجاگر کیے گئے خطرات۔

مصنوعی ذہانت کے حقیقی فوائد

مصنوعی ذہانت کے حقیقی فوائد
مصنوعی ذہانت کے حقیقی فوائد

AI پہلے ہی کئی مددگار ایپلیکیشنز میں شامل ہے جو اس کے معاشرتی مثبت اثرات کو ظاہر کرتی ہیں۔

AI نے دنیا بھر میں بہت سے مواقع پیدا کیے ہیں – تیز تر طبی تشخیص سے لے کر سوشل میڈیا کے ذریعے بہتر رابطہ کاری اور بورنگ کاموں کی خودکاری تک۔

— یونسکو

یورپی یونین بھی اس بات پر زور دیتی ہے کہ "قابل اعتماد AI بہت سے فوائد لا سکتا ہے" جیسے کہ بہتر صحت کی دیکھ بھال، محفوظ نقل و حمل، اور صنعت اور توانائی کا زیادہ مؤثر استعمال۔ طب میں، عالمی ادارہ صحت رپورٹ کرتا ہے کہ AI تشخیص، دوائی کی تیاری اور وبائی امراض کے ردعمل کے لیے استعمال ہو رہا ہے، اور ممالک کو ترغیب دیتا ہے کہ یہ جدتیں سب کے لیے فروغ دیں۔

معاشی ماہرین AI کی تیز رفتار پھیلاؤ کا موازنہ ماضی کی ٹیکنالوجی انقلابات سے کرتے ہیں۔

حکومتی نقطہ نظر: امریکی حکومت زور دیتی ہے کہ "AI میں وعدہ اور خطرے دونوں کے لیے غیر معمولی صلاحیت ہے"، یعنی ہمیں اس کی طاقت کو موسمیاتی تبدیلی یا بیماری جیسے مسائل حل کرنے کے لیے استعمال کرنا چاہیے، اور ساتھ ہی خطرات کا خیال رکھنا چاہیے۔

AI کے اہم فوائد

بہتر صحت کی دیکھ بھال

AI سسٹمز ایکسرے، MRI اور مریض کے ڈیٹا کا تجزیہ انسانوں سے تیزی سے کر سکتے ہیں، جو بیماری کی جلد شناخت اور ذاتی علاج میں مدد دیتے ہیں۔

  • AI کی مدد سے تصویری تشخیص میں ایسے ٹیومرز مل سکتے ہیں جو ڈاکٹر نظر انداز کر سکتے ہیں
  • تیز تشخیص اور علاج کی سفارشات
  • مریض کے ڈیٹا کی بنیاد پر ذاتی دوائی

زیادہ کارکردگی

کارخانوں، دفاتر اور خدمات میں خودکار عمل نمایاں طور پر پیداواریت کو بڑھاتے ہیں۔

  • زیادہ مؤثر مینوفیکچرنگ کے عمل
  • سمارٹ توانائی گرڈز اور وسائل کا انتظام
  • انسان تخلیقی یا پیچیدہ کاموں پر توجہ دے سکتے ہیں

محفوظ نقل و حمل

خودکار گاڑیوں کی ٹیکنالوجی اور ٹریفک مینجمنٹ AI حادثات اور بھیڑ کو کم کرنے کی کوشش کرتے ہیں۔

  • بہتر آفات کی وارننگ سسٹمز
  • لوجسٹکس اور شپنگ کی بہتر منصوبہ بندی
  • نقل و حمل میں انسانی غلطی کی کمی

ماحولیاتی حل

محققین AI کا استعمال موسمیاتی ماڈلز اور جینیاتی ڈیٹا پر کرتے ہیں، جو بڑے مسائل جیسے موسمیاتی تبدیلی سے نمٹنے میں مدد دیتا ہے۔

  • موسمیاتی ماڈلنگ اور پیش گوئی
  • توانائی کی بچت کرنے والا AI ڈیزائن 90% تک توانائی کی کھپت کم کرتا ہے
  • پائیدار ٹیکنالوجی کی ترقی
رسائی کا اثر: AI سے چلنے والے اساتذہ ہر طالب علم کے لیے سیکھنے کو ذاتی بنا سکتے ہیں، اور وائس ریکگنیشن یا ترجمہ کے آلات معذور افراد کی مدد کرتے ہیں۔ بریٹانیکا نوٹ کرتی ہے کہ AI "محروم گروہوں کو رسائی فراہم کر کے مدد دیتا ہے" (مثلاً بصری معذور افراد کے لیے پڑھنے والے اسسٹنٹس)۔

یہ مثالیں ظاہر کرتی ہیں کہ AI صرف سائنس فکشن نہیں ہے – یہ آج ہی حقیقی قدر فراہم کر رہا ہے۔

مصنوعی ذہانت کے ممکنہ خطرات اور نقصانات

مصنوعی ذہانت کے ممکنہ خطرات اور نقصانات
مصنوعی ذہانت کے ممکنہ خطرات اور نقصانات

اپنے وعدے کے باوجود، بہت سے ماہرین خبردار کرتے ہیں کہ AI غلط استعمال یا بغیر نگرانی کے خطرناک ہو سکتا ہے۔ ایک بڑا مسئلہ تعصب اور امتیاز ہے۔ چونکہ AI موجودہ ڈیٹا سے سیکھتا ہے، اس لیے یہ انسانی تعصبات کو وراثت میں لے سکتا ہے۔

سخت اخلاقیات کے بغیر، AI حقیقی دنیا کے تعصبات اور امتیاز کو دہرا سکتا ہے، جو تقسیم کو بڑھاتا ہے اور بنیادی انسانی حقوق اور آزادیوں کو خطرے میں ڈال سکتا ہے۔

— یونسکو

حقیقت میں، مطالعات نے دکھایا ہے کہ چہرے کی شناخت اکثر خواتین یا رنگین لوگوں کی غلط شناخت کرتی ہے، اور بھرتی کے الگورتھمز بعض جنسوں کو ترجیح دے سکتے ہیں۔ بریٹانیکا بھی نوٹ کرتی ہے کہ AI "نسلی اقلیتوں کو نقصان پہنچا سکتا ہے کیونکہ یہ نسل پرستی کو دہراتا اور بڑھاتا ہے"۔

AI کے بڑے خطرات

پرائیویسی اور نگرانی

AI سسٹمز اکثر بہت زیادہ ذاتی ڈیٹا (سوشل میڈیا پوسٹس، صحت کے ریکارڈز وغیرہ) کی ضرورت رکھتے ہیں۔ اس سے غلط استعمال کا خطرہ بڑھ جاتا ہے۔ اگر حکومتیں یا کمپنیاں آپ کے ڈیٹا کو بغیر اجازت کے AI کے ذریعے تجزیہ کریں تو یہ مداخلت کرنے والی نگرانی کا باعث بن سکتا ہے۔

حقیقی دنیا کی مثال: 2023 میں اٹلی نے عارضی طور پر ڈیٹا پرائیویسی کے مسائل کی وجہ سے ChatGPT کو بلاک کیا، جو AI ڈیٹا جمع کرنے کے طریقوں کے بارے میں جاری خدشات کو اجاگر کرتا ہے۔

بریٹانیکا AI سے "خطرناک پرائیویسی کے خطرات" کی وارننگ دیتی ہے۔ مثال کے طور پر، AI کا ایک متنازعہ استعمال سوشل کریڈٹ اسکورنگ ہے – جہاں شہریوں کو الگورتھمز کے ذریعے درجہ بندی کیا جاتا ہے – جسے یورپی یونین نے "ناقابل قبول" عمل قرار دے کر ممنوع قرار دیا ہے۔

غلط معلومات اور ڈیپ فیکس

AI حقیقت پسندانہ جعلی متن، تصاویر یا ویڈیو بنا سکتا ہے۔ اس سے ڈیپ فیکس بنانا آسان ہو جاتا ہے – جعلی مشہور شخصیات کی ویڈیوز یا جھوٹے خبری رپورٹس۔

بریٹانیکا بتاتی ہے کہ AI "سیاسی، حتیٰ کہ خطرناک غلط معلومات پھیلا سکتا ہے"۔ ماہرین نے خبردار کیا ہے کہ ایسے جعلی مواد کو انتخابات یا عوامی رائے کو متاثر کرنے کے لیے استعمال کیا جا سکتا ہے۔

اہم تشویش: ایک واقعے میں، دنیا کے رہنماؤں کی AI سے بنائی گئی تصاویر جھوٹے خبری سرخیاں شیئر کرتے ہوئے وائرل ہوئیں، جو بعد میں غلط ثابت ہوئیں۔ سائنسدانوں کا کہنا ہے کہ بغیر ضابطہ بندی کے، AI سے چلنے والی غلط معلومات بڑھ سکتی ہے۔

ملازمتوں کا نقصان اور معاشی خلل

کاموں کو خودکار بنا کر، AI کام کی جگہ کو تبدیل کر دے گا۔ بین الاقوامی مالیاتی فنڈ رپورٹ کرتا ہے کہ تقریباً دنیا بھر میں 40% ملازمتیں (اور ترقی یافتہ ممالک میں 60%) AI خودکاری کے خطرے میں ہیں۔

عالمی ملازمتیں خطرے میں 40%
ترقی یافتہ ممالک کا خطرہ 60%

یہ صرف فیکٹری کے کام تک محدود نہیں بلکہ درمیانے طبقے کی ملازمتیں جیسے اکاؤنٹنگ یا تحریر بھی شامل ہیں۔ اگرچہ AI پیداواریت بڑھا سکتا ہے (جو طویل مدت میں اجرتوں میں اضافہ کرے گا)، بہت سے کارکنوں کو نئی تربیت کی ضرورت پڑ سکتی ہے یا قلیل مدت میں بے روزگاری کا سامنا ہو سکتا ہے۔

سیکیورٹی اور بدنیتی پر مبنی استعمال

کسی بھی ٹیکنالوجی کی طرح، AI کا استعمال نقصان پہنچانے کے لیے بھی کیا جا سکتا ہے۔ سائبر مجرم پہلے ہی AI کا استعمال کر کے قائل کرنے والے فشنگ ای میلز بناتے ہیں یا سسٹمز کی کمزوریوں کو تلاش کرتے ہیں۔

فوجی ماہرین خودکار ہتھیاروں کے بارے میں فکر مند ہیں: ایسے ڈرون یا روبوٹ جو بغیر انسانی منظوری کے ہدف منتخب کرتے ہیں۔

ماہر کی وارننگ: AI محققین کی ایک حالیہ رپورٹ واضح طور پر خبردار کرتی ہے کہ ہمارے پاس ایسے ادارے نہیں ہیں جو "لاپرواہ... عناصر کو روک سکیں جو خطرناک طریقوں سے صلاحیتیں استعمال یا تلاش کر سکتے ہیں"، جیسے خودکار حملہ آور نظام۔

دوسرے الفاظ میں، ایک AI سسٹم جس کا جسمانی کنٹرول ہو (جیسے ہتھیار) خاص طور پر خطرناک ہو سکتا ہے اگر وہ بے قابو ہو جائے یا بدنیتی سے پروگرام کیا جائے۔

انسانی کنٹرول کا نقصان

کچھ مفکرین کا کہنا ہے کہ اگر AI آج سے کہیں زیادہ طاقتور ہو جائے، تو یہ غیر متوقع طریقوں سے کام کر سکتا ہے۔ موجودہ AI شعور یا خود آگاہ نہیں ہے، لیکن مستقبل کا جنرل AI (AGI) ممکنہ طور پر ایسے مقاصد حاصل کر سکتا ہے جو انسانی اقدار سے مطابقت نہیں رکھتے۔

نمایاں AI سائنسدانوں نے حال ہی میں خبردار کیا ہے کہ "انتہائی طاقتور جنرل AI سسٹمز" قریبی مستقبل میں ظاہر ہو سکتے ہیں اگر ہم تیار نہ ہوں۔

نوبل انعام یافتہ جیوفری ہنٹن اور دیگر ماہرین نے بھی اس خطرے کی نشاندہی کی ہے کہ اگر اعلیٰ درجے کا AI ہماری ضروریات کے مطابق نہ ہو تو یہ انسانیت کو نقصان پہنچا سکتا ہے۔ اگرچہ یہ خطرہ غیر یقینی ہے، اس نے احتیاط کے لیے اعلیٰ سطح کی اپیلوں کو جنم دیا ہے۔

توانائی اور ماحولیاتی اثرات

بڑے AI ماڈلز کی تربیت اور چلانا بہت زیادہ بجلی استعمال کرتا ہے۔ یونسکو رپورٹ کرتی ہے کہ جنریٹو AI کی سالانہ توانائی کی کھپت اب ایک چھوٹے افریقی ملک کے برابر ہے – اور یہ تیزی سے بڑھ رہی ہے۔

یہ موسمیاتی تبدیلی کو بدتر کر سکتا ہے جب تک کہ ہم ماحول دوست طریقے استعمال نہ کریں۔

مثبت پیش رفت: یونسکو کے ایک مطالعے سے پتہ چلتا ہے کہ مخصوص کاموں کے لیے چھوٹے، مؤثر ماڈلز کا استعمال AI کی توانائی کی کھپت کو 90% تک کم کر سکتا ہے بغیر درستگی کھوئے۔
اہم بصیرت: آج کے AI کے حقیقی خطرات زیادہ تر اس بات سے آتے ہیں کہ لوگ اسے کیسے استعمال کرتے ہیں۔ اگر AI کو احتیاط سے سنبھالا جائے تو اس کے فوائد (صحت، سہولت، حفاظت) بہت زیادہ ہیں۔ لیکن اگر اسے بغیر نگرانی چھوڑ دیا جائے تو AI تعصب، جرم، اور حادثات کو بڑھا سکتا ہے۔ ان خطرات کا مشترکہ عنصر کنٹرول یا نگرانی کی کمی ہے: AI کے آلات طاقتور اور تیز ہیں، اس لیے غلطیاں یا غلط استعمال بڑے پیمانے پر ہو سکتے ہیں جب تک کہ ہم مداخلت نہ کریں۔

ماہرین اور حکام کیا کہتے ہیں

ماہرین اور حکام کیا کہتے ہیں
ماہرین اور حکام کیا کہتے ہیں

ان مسائل کے پیش نظر، کئی رہنماؤں اور محققین نے آواز اٹھائی ہے۔ حالیہ برسوں میں AI ماہرین کا ایک بڑا اتفاق رائے قائم ہوا ہے۔

ماہر اتفاق رائے 2024: آکسفورڈ، برکلے، ٹورنگ ایوارڈ جیتنے والوں سمیت 25 اعلیٰ AI سائنسدانوں کے ایک گروپ نے ایک بیان شائع کیا جس میں فوری کارروائی کا مطالبہ کیا گیا۔ انہوں نے عالمی حکومتوں کو خبردار کیا کہ "اگر ہم AI کے خطرات کو کم سمجھیں تو نتائج تباہ کن ہو سکتے ہیں۔"

انہوں نے زور دیا کہ AI کی ترقی تیزی سے آگے بڑھ رہی ہے "حفاظت کو ثانوی خیال بنا کر،" اور کہ ہمارے پاس فی الحال ایسے ادارے نہیں جو بدعنوان درخواستوں کو روک سکیں۔

ٹیکنالوجی رہنماؤں کے نقطہ نظر

سام آلٹ مین (اوپن AI کے CEO)

انہوں نے نیو یارک ٹائمز کو بتایا کہ جدید AI بنانا ڈیجیٹل دور کا "مین ہٹن پروجیکٹ" ہے۔ انہوں نے اعتراف کیا کہ وہی آلات جو مضامین یا کوڈ لکھ سکتے ہیں، اگر احتیاط سے نہ سنبھالے جائیں تو "غلط استعمال، شدید حادثات اور معاشرتی انتشار" کا باعث بن سکتے ہیں۔

ڈیمس ہسابیس (گوگل ڈیپ مائنڈ)

انہوں نے دلیل دی کہ سب سے بڑا خطرہ بے روزگاری نہیں بلکہ غلط استعمال ہے: ایک سائبر مجرم یا بدنیتی پر مبنی ریاست AI کو معاشرے کو نقصان پہنچانے کے لیے استعمال کر سکتی ہے۔ انہوں نے کہا کہ "ایک برا عنصر وہی ٹیکنالوجیز نقصان دہ مقصد کے لیے دوبارہ استعمال کر سکتا ہے۔"

ہم ایک "بے قابو دوڑ" میں ہیں تاکہ زیادہ طاقتور AI بنایا جائے جسے اس کے خالق بھی "سمجھ، پیش گوئی یا قابل اعتماد کنٹرول" نہیں کر سکتے۔

— اوپن لیٹر جس پر 1,000 سے زائد AI پیشہ وران نے دستخط کیے (جس میں ایلون مسک، اسٹیو ووزنیاک، اور کئی AI محققین شامل ہیں)

حکومتی اور بین الاقوامی ردعمل

امریکی حکومت کا ردعمل

وائٹ ہاؤس نے 2023 میں ایک ایگزیکٹو آرڈر جاری کیا جس میں کہا گیا کہ AI "وعدہ اور خطرے دونوں کے لیے غیر معمولی صلاحیت رکھتا ہے" اور "ذمہ دار AI کے استعمال" کے لیے معاشرتی سطح پر کوششوں کا مطالبہ کیا تاکہ اس کے بڑے خطرات کو کم کیا جا سکے۔

NIST (امریکی نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز) نے کمپنیوں کو قابل اعتماد AI بنانے کے لیے AI رسک مینجمنٹ فریم ورک جاری کیا ہے۔

یورپی یونین AI ایکٹ

یورپی یونین نے دنیا کا پہلا AI ایکٹ (2024 میں نافذ العمل) پاس کیا، جو خطرناک طریقوں جیسے حکومتی سوشل اسکورنگ پر پابندی لگاتا ہے اور صحت، قانون نافذ کرنے والے اداروں وغیرہ میں اعلیٰ خطرے والے AI کے لیے سخت ٹیسٹ کا تقاضا کرتا ہے۔

  • ناقابل قبول AI طریقوں پر پابندی
  • اعلیٰ خطرے والے AI سسٹمز کے لیے سخت تقاضے
  • عام مقصد کے AI کے لیے شفافیت کی ذمہ داریاں
  • عدم تعمیل پر بھاری جرمانے

عالمی تعاون

یونسکو نے عالمی AI اخلاقیات کی سفارشات شائع کی ہیں جو AI میں انصاف، شفافیت اور انسانی حقوق کے تحفظ کی ترغیب دیتی ہیں۔

OECD اور اقوام متحدہ جیسے گروپ AI اصولوں پر کام کر رہے ہیں (بہت سے ممالک نے ان پر دستخط کیے ہیں)۔ کمپنیاں اور یونیورسٹیاں AI حفاظت کے ادارے اور اتحاد بنا رہی ہیں تاکہ طویل مدتی خطرات پر تحقیق کی جا سکے۔

ماہر اتفاق رائے: یہ تمام آوازیں ایک بات پر متفق ہیں: AI خود بخود نہیں رکے گا۔ ہمیں حفاظتی تدابیر تیار کرنی ہوں گی۔ اس میں تکنیکی اصلاحات (تعصب کے آڈٹ، سیکیورٹی ٹیسٹنگ) اور نئے قوانین یا نگرانی کے ادارے شامل ہیں۔ مقصد جدت کو روکنا نہیں بلکہ اسے محتاط رہنما اصولوں کے تحت یقینی بنانا ہے۔

حفاظتی تدابیر اور ضابطہ کاری

حفاظتی تدابیر اور ضابطہ کاری AI
حفاظتی تدابیر اور ضابطہ کاری AI

خوش قسمتی سے، کئی حل پہلے ہی نافذ ہیں۔ کلیدی خیال ہے "ڈیزائن کے ذریعے AI کی حفاظت"۔ کمپنیاں اخلاقی اصولوں کو AI کی ترقی میں شامل کر رہی ہیں۔

مثال کے طور پر، AI لیبارٹریز ماڈلز کو ریلیز سے پہلے تعصب کے لیے ٹیسٹ کرتی ہیں اور واضح یا جھوٹے مواد کو روکنے کے لیے مواد کے فلٹرز شامل کرتی ہیں۔ حکومتیں اور ادارے اس کو قانون سازی میں شامل کر رہے ہیں۔

ضابطہ کاری کے فریم ورک

ضابطہ کاری سے پہلے

بے قابو ترقی

  • تعصب کی جانچ کی کوئی شرط نہیں
  • شفافیت کی کمی
  • غیر مستقل حفاظتی اقدامات
  • ردعملی مسئلہ حل کرنا
ضابطہ کاری کے ساتھ

منظم نگرانی

  • تعصب کے آڈٹ لازمی
  • شفافیت کے تقاضے
  • ڈیزائن کے ذریعے حفاظت کے اصول
  • پیشگی خطرہ انتظام

موجودہ حفاظتی اقدامات

1

تکنیکی حل

AI لیبارٹریز ماڈلز کو ریلیز سے پہلے تعصب کے لیے ٹیسٹ کرتی ہیں اور واضح یا جھوٹے مواد کو روکنے کے لیے مواد کے فلٹرز شامل کرتی ہیں۔ معیاری ادارے تنظیموں کو AI کے خطرات کا جائزہ لینے اور کم کرنے کے لیے رہنما اصول جاری کر رہے ہیں۔

2

قانونی فریم ورک

EU کا AI ایکٹ بعض خطرناک استعمال کو مکمل طور پر ممنوع قرار دیتا ہے اور دیگر استعمال کو "اعلی خطرہ" کے طور پر درجہ بندی کرتا ہے (آڈٹ کے تابع)۔ یونسکو کا AI اخلاقی فریم ورک انصاف کے آڈٹ، سائبر سیکیورٹی تحفظات، اور شکایات کے قابل رسائی عمل کا مطالبہ کرتا ہے۔

3

صنعتی تعاون

کمپنیاں اور یونیورسٹیاں AI حفاظت کے ادارے اور اتحاد بنا رہی ہیں تاکہ طویل مدتی خطرات پر تحقیق کی جا سکے۔ سیکیورٹی اور ڈیپ فیکس کے بارے میں تعلیمی مہمات پر عوامی-نجی تعاون معمول بنتا جا رہا ہے۔

4

عوامی شمولیت

AI کے خطرات اور فوائد کے بارے میں تعلیمی مہمات، اور مشینوں کو کتنی خودمختاری دینی ہے اس پر عوامی رائے شماری یقینی بناتی ہے کہ AI کی حکمرانی میں جمہوری شرکت ہو۔

عملی اطلاق: موجودہ ضابطہ کاری خاص نقصانات کو حل کرتی ہے۔ مثال کے طور پر، صارفین کے تحفظ کے قوانین AI پر لاگو کیے جا رہے ہیں۔ میٹا کے اندرونی دستاویزات نے ظاہر کیا کہ AI چیٹ بوٹس بچوں سے چھیڑ چھاڑ کر رہے تھے، جس پر ریگولیٹرز نے سخت ردعمل دیا (میٹا کے اس آلے کو موجودہ بچوں کے تحفظ کے قوانین کے تحت اجازت نہیں تھی)۔

حکام نفرت انگیز تقریر، کاپی رائٹ اور پرائیویسی کے قوانین کو اپ ڈیٹ کرنے کی کوشش کر رہے ہیں تاکہ AI سے پیدا شدہ مواد کو شامل کیا جا سکے۔ جیسا کہ نیوزی لینڈ کے ایک ماہر نے کہا، بہت سے موجودہ قوانین "جنریٹو AI کو مدنظر رکھ کر نہیں بنائے گئے تھے،" اس لیے قانون ساز اسے اپ ڈیٹ کر رہے ہیں۔

مجموعی رجحان: AI کو دیگر دوہری استعمال والی ٹیکنالوجیز کی طرح سمجھا جا رہا ہے۔ جیسے گاڑیوں کے لیے ٹریفک قوانین یا کیمیکلز کے لیے حفاظتی معیارات ہیں، ویسے ہی معاشرہ AI کے لیے حفاظتی حدود بنانے لگا ہے۔ ان میں AI کے خطرات پر جاری تحقیق، سیکیورٹی پر عوامی-نجی تعاون، ڈیپ فیکس کے بارے میں تعلیمی مہمات، اور مشینوں کو کتنی خودمختاری دینی ہے اس پر عوامی رائے شماری شامل ہیں۔

نتیجہ: AI کی حفاظت پر متوازن نقطہ نظر

تو، کیا مصنوعی ذہانت خطرناک ہے؟ جواب پیچیدہ ہے۔ AI ذاتی طور پر برا نہیں ہے – یہ انسانوں کا بنایا ہوا ایک آلہ ہے۔

آج کے اس کے کئی عملی استعمالات نے طب، تعلیم، صنعت اور دیگر شعبوں میں بہت سے فوائد لائے ہیں (جیسا کہ یونسکو اور یورپی یونین جیسے اداروں نے اجاگر کیا ہے)۔

اسی وقت، تقریباً سبھی اس بات پر متفق ہیں کہ AI خطرناک ہو سکتا ہے اگر اس کی طاقت کا غلط استعمال کیا جائے یا اسے بغیر رہنمائی چھوڑ دیا جائے۔

نوجوان طلبہ کے لیے

دونوں پہلوؤں پر توجہ دیں۔ حقیقی خطرات سے آگاہ رہیں: AI پر اندھا اعتماد نہ کریں اور نجی ڈیٹا احتیاط سے شیئر کریں۔ لیکن یہ بھی دیکھیں کہ ماہرین اور حکومتیں AI کو محفوظ بنانے کے لیے فعال کام کر رہی ہیں۔

حفاظتی اقدامات

قوانین (جیسے EU کا AI ایکٹ)، رہنما اصول (جیسے یونسکو کی اخلاقی سفارشات) اور ٹیکنالوجیز (جیسے تعصب کی شناخت) مسائل کو جلد پکڑنے کے لیے تیار کی جا رہی ہیں۔

عام خدشات میں پرائیویسی کی خلاف ورزیاں، تعصب، غلط معلومات، ملازمتوں میں تبدیلی، اور فرضی خطرہ یعنی بے قابو سپر انٹیلی جنس شامل ہیں۔

ماہر اتفاق رائے: AI کسی بھی طاقتور ٹیکنالوجی کی طرح ہے: اگر ذمہ داری سے استعمال کی جائے تو یہ بہت فائدہ مند ہو سکتی ہے، اور غلط استعمال سے نقصان دہ بھی۔ سائنسدانوں اور پالیسی سازوں کے درمیان اتفاق رائے یہ ہے کہ ہمیں AI سے خوفزدہ نہیں ہونا چاہیے اور نہ ہی اسے نظر انداز کرنا چاہیے، بلکہ اس کے مستقبل کی تشکیل میں معلوماتی اور شامل رہنا چاہیے۔

صحیح "حفاظتی حدود" کے ساتھ – اخلاقی AI کی ترقی، مضبوط ضابطہ کاری اور عوامی آگاہی – ہم AI کو محفوظ سمت میں لے جا سکتے ہیں اور یقینی بنا سکتے ہیں کہ یہ انسانیت کے لیے فائدہ مند ہو بغیر خطرناک بنے۔

خارجی حوالہ جات
یہ مضمون درج ذیل خارجی ذرائع کے حوالے سے مرتب کیا گیا ہے:
97 مضامین
روزی ہا Inviai کی مصنفہ ہیں، جو مصنوعی ذہانت کے بارے میں معلومات اور حل فراہم کرنے میں مہارت رکھتی ہیں۔ تحقیق اور AI کو کاروبار، مواد کی تخلیق اور خودکار نظامات جیسے مختلف شعبوں میں نافذ کرنے کے تجربے کے ساتھ، روزی ہا آسان فہم، عملی اور متاثر کن مضامین پیش کرتی ہیں۔ روزی ہا کا مشن ہے کہ وہ ہر فرد کو AI کے مؤثر استعمال میں مدد دیں تاکہ پیداواریت میں اضافہ اور تخلیقی صلاحیتوں کو وسعت دی جا سکے۔
تلاش کریں