کیا آپ مصنوعی ذہانت میں الگورتھمک تعصبات کے بارے میں جاننا چاہتے ہیں؟ اس مضمون میں INVIAI کے ساتھ شامل ہوں اور مصنوعی ذہانت اور الگورتھمک تعصب کے بارے میں مزید معلومات حاصل کریں!

مصنوعی ذہانت (AI) ہماری روزمرہ زندگیوں میں تیزی سے شامل ہو رہی ہے – بھرتی کے فیصلوں سے لے کر صحت کی دیکھ بھال اور پولیسنگ تک – لیکن اس کے استعمال نے الگورتھمک تعصب کے حوالے سے خدشات پیدا کیے ہیں۔ الگورتھمک تعصب سے مراد AI نظاموں کے نتائج میں منظم اور غیر منصفانہ تعصبات ہیں، جو اکثر سماجی دقیانوسی تصورات اور عدم مساوات کی عکاسی کرتے ہیں۔

بنیادی طور پر، AI الگورتھم غیر ارادی طور پر اپنے تربیتی ڈیٹا یا ڈیزائن میں موجود انسانی تعصبات کو دہرا سکتا ہے، جس کے نتیجے میں امتیازی سلوک پیدا ہوتا ہے۔

یہ مسئلہ ٹیکنالوجی کی اخلاقیات میں سب سے زیادہ زیر بحث چیلنجز میں سے ایک بن چکا ہے، جس نے محققین، پالیسی سازوں، اور صنعت کے رہنماؤں کی عالمی توجہ حاصل کی ہے۔ AI کے تیز رفتار اپنانے کی وجہ سے تعصب کو فوری طور پر حل کرنا ضروری ہے: بغیر اخلاقی حدود کے، AI حقیقی دنیا کے تعصبات اور امتیاز کو دہرانے کا خطرہ رکھتا ہے، جو سماجی تقسیم کو بڑھاوا دیتا ہے اور بنیادی انسانی حقوق کو بھی خطرے میں ڈال سکتا ہے۔

ذیل میں ہم الگورتھمک تعصب کے اسباب، اس کے حقیقی دنیا میں اثرات کی مثالیں، اور AI کو زیادہ منصفانہ بنانے کی عالمی کوششوں کا جائزہ لیتے ہیں۔

الگورتھمک تعصب اور اس کے اسباب کو سمجھنا

الگورتھمک تعصب عام طور پر اس لیے نہیں ہوتا کہ AI "امتیاز کرنا چاہتا ہے"، بلکہ انسانی عوامل کی وجہ سے ہوتا ہے۔ AI نظام ڈیٹا سے سیکھتے ہیں اور لوگوں کے بنائے ہوئے قواعد کی پیروی کرتے ہیں – اور لوگ اکثر غیر شعوری تعصبات رکھتے ہیں۔
اگر تربیتی ڈیٹا متعصب یا تاریخی تعصبات کی عکاسی کرتا ہے، تو AI ممکنہ طور پر ان پیٹرنز کو سیکھ لے گا۔

مثال کے طور پر، ایک ریزیومے اسکریننگ AI جو ٹیکنالوجی صنعت کی ایک دہائی کی بھرتیوں پر تربیت یافتہ ہو (جہاں زیادہ تر منتخب امیدوار مرد تھے) یہ نتیجہ نکال سکتا ہے کہ مرد امیدوار ترجیحی ہیں، جس سے خواتین کو نقصان پہنچتا ہے۔ دیگر عام اسباب میں نامکمل یا غیر نمائندہ ڈیٹا سیٹس، متعصب ڈیٹا لیبلنگ، یا ایسے الگورتھمز شامل ہیں جو مجموعی درستگی کے لیے بہتر بنائے گئے ہوں لیکن اقلیتوں کے لیے منصفانہ نہ ہوں۔

مختصراً، AI الگورتھمز اپنے تخلیق کاروں اور ڈیٹا کے تعصبات کو وراثت میں لیتے ہیں جب تک کہ ان تعصبات کو پہچان کر درست کرنے کے لیے جان بوجھ کر اقدامات نہ کیے جائیں۔

یہ بات قابل ذکر ہے کہ الگورتھمک تعصب عموماً غیر ارادی ہوتا ہے۔ تنظیمیں اکثر AI کو زیادہ معروضی فیصلے کرنے کے لیے اپناتی ہیں، لیکن اگر وہ نظام کو متعصب معلومات فراہم کریں یا ڈیزائن میں مساوات کو مدنظر نہ رکھیں، تو نتیجہ پھر بھی غیر منصفانہ ہو سکتا ہے۔ AI کا تعصب مواقع کی غیر منصفانہ تقسیم اور غلط نتائج پیدا کر سکتا ہے، جو لوگوں کی فلاح و بہبود پر منفی اثر ڈال سکتا ہے اور AI پر اعتماد کو کمزور کر سکتا ہے۔

تعصب کے اسباب کو سمجھنا حل کی طرف پہلا قدم ہے – اور یہ وہ قدم ہے جسے تعلیمی، صنعتی، اور حکومتی ادارے دنیا بھر میں سنجیدگی سے لے رہے ہیں۔

الگورتھمک تعصب اور اس کے اسباب کو سمجھنا

AI تعصب کی حقیقی دنیا کی مثالیں

AI میں تعصب محض ایک نظریاتی مسئلہ نہیں ہے؛ متعدد حقیقی دنیا کے واقعات نے ظاہر کیا ہے کہ الگورتھمک تعصب امتیاز کا باعث بن سکتا ہے۔ مختلف شعبوں میں AI تعصب کی نمایاں مثالیں درج ذیل ہیں:

  • فوجداری انصاف: امریکہ میں ایک مشہور الگورتھم جو مجرموں کے دوبارہ جرم کرنے کے امکانات کی پیش گوئی کے لیے استعمال ہوتا تھا، سیاہ فام ملزمان کے خلاف متعصب پایا گیا۔ یہ اکثر سیاہ فام ملزمان کو زیادہ خطرناک اور سفید فام ملزمان کو کم خطرناک قرار دیتا تھا، جس سے سزا میں نسلی تفاوت بڑھ گئی۔
    یہ کیس ظاہر کرتا ہے کہ AI پولیسنگ اور عدالتوں میں تاریخی تعصبات کو کیسے بڑھا سکتا ہے۔

  • بھرتی اور تقرری: ایمیزون نے ایک AI بھرتی کے آلے کو خاتمہ دے دیا جب معلوم ہوا کہ یہ خواتین کے خلاف امتیازی سلوک کر رہا تھا۔ مشین لرننگ ماڈل نے خود سیکھا تھا کہ مرد امیدوار ترجیحی ہیں، کیونکہ اسے زیادہ تر مردوں کے ریزیومے پر تربیت دی گئی تھی۔

    نتیجتاً، ایسے ریزیومے جن میں "خواتین" کا لفظ شامل تھا (مثلاً "خواتین کے شطرنج کلب کی کپتان") یا تمام خواتین کے کالجز کو نظام نے کم تر سمجھا۔ یہ متعصب بھرتی کا الگورتھم تکنیکی ملازمتوں کے لیے اہل خواتین کو غیر منصفانہ طور پر خارج کر دیتا۔

  • صحت کی دیکھ بھال: امریکہ کے ہسپتالوں میں استعمال ہونے والے ایک الگورتھم نے ایسے مریضوں کی شناخت کے لیے جو اضافی دیکھ بھال کے مستحق ہیں، سیاہ فام مریضوں کی صحت کی ضروریات کو کم تر سمجھا۔ نظام نے صحت کی دیکھ بھال کے اخراجات کی بنیاد پر ترجیح دی: چونکہ تاریخی طور پر سیاہ فام مریضوں پر کم خرچ کیا گیا تھا، الگورتھم نے غلطی سے یہ نتیجہ نکالا کہ سیاہ فام مریض "صحت مند" ہیں اور انہیں کم خطرہ دیا۔

    عملی طور پر، اس تعصب کی وجہ سے بہت سے سیاہ فام مریض جو زیادہ دیکھ بھال کے مستحق تھے، نظر انداز کیے گئے – تحقیق سے پتہ چلا کہ سیاہ فام مریضوں کی سالانہ طبی لاگت سفید فام مریضوں کے مقابلے میں تقریباً $1,800 کم تھی، جس کی وجہ سے AI نے ان کا کم علاج کیا۔

  • چہرہ شناختی ٹیکنالوجی: چہرہ شناختی ٹیکنالوجی نے نسلی اور صنفی بنیادوں پر نمایاں تعصب دکھایا ہے۔ امریکہ کے نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز اینڈ ٹیکنالوجی (NIST) کی 2019 کی ایک جامع تحقیق میں پایا گیا کہ زیادہ تر چہرہ شناختی الگورتھمز میں رنگین افراد اور خواتین کے لیے غلطی کی شرح سفید فام مردوں کے مقابلے میں کہیں زیادہ تھی۔

    ایک سے ایک میچنگ (یہ تصدیق کرنا کہ دو تصاویر ایک ہی شخص کی ہیں) میں ایشیائی اور افریقی-امریکی چہروں کے لیے غلط مثبت شناخت کی شرح کچھ الگورتھمز میں سفید فام چہروں کے مقابلے میں 10 سے 100 گنا زیادہ تھی۔ ایک سے کئی تلاشوں (ڈیٹا بیس میں سے کسی شخص کی شناخت، جو قانون نافذ کرنے والے ادارے استعمال کرتے ہیں) میں سب سے زیادہ غلط شناخت کی شرح سیاہ فام خواتین کے لیے تھی – ایک خطرناک تعصب جس کی وجہ سے بے گناہ افراد کو غلط طور پر گرفتار کیا جا چکا ہے۔

    یہ تفاوتیں ظاہر کرتی ہیں کہ متعصب AI کس طرح حاشیے پر موجود گروہوں کو غیر متناسب نقصان پہنچا سکتا ہے۔

  • جنریٹو AI اور آن لائن مواد: جدید ترین AI نظام بھی اس سے مستثنیٰ نہیں ہیں۔ 2024 کی ایک یونسکو تحقیق میں ظاہر ہوا کہ بڑے زبان کے ماڈلز (جو چیٹ بوٹس اور مواد بنانے والے AI کے پیچھے ہوتے ہیں) اکثر رجعت پسند صنفی اور نسلی دقیانوسی تصورات پیدا کرتے ہیں۔

    مثال کے طور پر، ایک مشہور ماڈل نے خواتین کو مردوں کے مقابلے میں گھریلو کرداروں میں چار گنا زیادہ بیان کیا، جہاں نسوانی نام اکثر "گھر" اور "بچے" جیسے الفاظ سے منسلک تھے، جبکہ مردانہ نام "ایگزیکٹو"، "تنخواہ"، اور "کیریئر" سے جڑے تھے۔ اسی طرح، تحقیق میں پایا گیا کہ یہ AI ماڈلز اپنے نتائج میں ہم جنس پرستی مخالف تعصب اور ثقافتی دقیانوسی تصورات بھی دکھاتے ہیں۔

    چونکہ لاکھوں لوگ روزمرہ زندگی میں جنریٹو AI استعمال کر رہے ہیں، مواد میں معمولی تعصبات بھی حقیقی دنیا میں عدم مساوات کو بڑھا سکتے ہیں، اور دقیانوسی تصورات کو وسیع پیمانے پر تقویت دے سکتے ہیں۔

یہ مثالیں واضح کرتی ہیں کہ الگورتھمک تعصب کوئی دور یا نایاب مسئلہ نہیں ہے – یہ آج مختلف شعبوں میں ہو رہا ہے۔ ملازمت کے مواقع سے لے کر انصاف، صحت کی دیکھ بھال سے آن لائن معلومات تک، متعصب AI نظام موجودہ امتیاز کو دہرا سکتے ہیں اور اس میں اضافہ بھی کر سکتے ہیں۔

نقصان اکثر تاریخی طور پر پسماندہ گروہوں کو پہنچتا ہے، جو سنگین اخلاقی اور انسانی حقوق کے مسائل کو جنم دیتا ہے۔ جیسا کہ یونسکو نے خبردار کیا ہے، AI کے خطرات "موجودہ عدم مساوات پر مزید اضافہ کر کے پہلے سے پسماندہ گروہوں کو مزید نقصان پہنچا رہے ہیں"۔

AI تعصب کی حقیقی دنیا کی مثالیں

AI تعصب کیوں اہم ہے؟

AI تعصب کو حل کرنا بہت اہم ہے۔ اگر اسے نظر انداز کیا گیا تو متعصب الگورتھمز نظامی امتیاز کو ٹیکنالوجی کی غیر جانبداری کے پردے تلے مضبوط کر سکتے ہیں۔ AI کے ذریعے کیے گئے (یا رہنمائی کیے گئے) فیصلے – جیسے کہ کون بھرتی ہوتا ہے، کون قرضہ یا ضمانت پاتا ہے، پولیس کس کی نگرانی کرتی ہے – لوگوں کی زندگیوں پر حقیقی اثرات رکھتے ہیں۔

اگر یہ فیصلے مخصوص جنس، نسل، یا کمیونٹی کے خلاف غیر منصفانہ ہوں، تو سماجی عدم مساوات بڑھ جاتی ہے۔ اس سے مواقع کی منسوخی، معاشی فرق، یا متاثرہ گروہوں کے لیے ذاتی آزادی اور سلامتی کے خطرات پیدا ہو سکتے ہیں۔

وسیع تر تناظر میں، الگورتھمک تعصب انسانی حقوق اور سماجی انصاف کو نقصان پہنچاتا ہے، جو مساوات اور عدم امتیاز کے اصولوں کے خلاف ہے جنہیں جمہوری معاشرے برقرار رکھتے ہیں۔

AI میں تعصب ٹیکنالوجی پر عوامی اعتماد کو بھی کمزور کرتا ہے۔ لوگ ایسے AI نظاموں پر کم اعتماد کرتے ہیں یا انہیں اپنانے سے گریز کرتے ہیں جو غیر منصفانہ یا غیر شفاف سمجھے جاتے ہیں۔

کاروباروں اور حکومتوں کے لیے یہ اعتماد کا فقدان ایک سنگین مسئلہ ہے – کامیاب جدت کے لیے عوامی اعتماد ضروری ہے۔ جیسا کہ ایک ماہر نے کہا، منصفانہ اور غیر متعصب AI فیصلے صرف اخلاقی طور پر درست نہیں، کاروبار اور معاشرے کے لیے بھی فائدہ مند ہیں کیونکہ پائیدار جدت اعتماد پر منحصر ہے۔

دوسری طرف، تعصب کی وجہ سے AI کی زیادہ نمایاں ناکامیاں (جیسا کہ اوپر کے کیسز میں) کسی ادارے کی ساکھ اور قانونی حیثیت کو نقصان پہنچا سکتی ہیں۔

مزید برآں، الگورتھمک تعصب AI کے ممکنہ فوائد کو کم کر سکتا ہے۔ AI میں بہتری اور بہتر فیصلے کرنے کی صلاحیت ہے، لیکن اگر اس کے نتائج آبادی کے کچھ حصوں کے لیے امتیازی یا غلط ہوں، تو یہ اپنی مکمل مثبت تاثیر حاصل نہیں کر سکتا۔

مثال کے طور پر، ایک AI صحت کا آلہ جو ایک مخصوص گروہ کے لیے اچھا کام کرتا ہے لیکن دوسروں کے لیے خراب، واقعی مؤثر یا قابل قبول نہیں ہے۔ جیسا کہ OECD نے مشاہدہ کیا، AI میں تعصب مواقع کو غیر منصفانہ طور پر محدود کرتا ہے اور کاروبار کی ساکھ اور صارفین کے اعتماد کو نقصان پہنچا سکتا ہے۔

مختصراً، تعصب کا حل صرف اخلاقی ضرورت نہیں بلکہ AI کے فوائد کو تمام افراد کے لیے منصفانہ طریقے سے حاصل کرنے کے لیے بھی ناگزیر ہے۔

AI تعصب کیوں اہم ہے

AI تعصب کو کم کرنے کی حکمت عملیاں

چونکہ الگورتھمک تعصب اب وسیع پیمانے پر تسلیم کیا جا چکا ہے، اس کو کم کرنے کے لیے متعدد حکمت عملی اور بہترین طریقے سامنے آئے ہیں۔ AI نظاموں کو منصفانہ اور شامل بنانے کے لیے ترقی اور نفاذ کے مختلف مراحل پر اقدامات ضروری ہیں:

  • بہتر ڈیٹا کے طریقے: چونکہ متعصب ڈیٹا بنیادی وجہ ہے، اس لیے ڈیٹا کے معیار کو بہتر بنانا کلیدی ہے۔ اس کا مطلب ہے متنوع، نمائندہ تربیتی ڈیٹا سیٹس استعمال کرنا جو اقلیتوں کو شامل کریں، اور کسی بھی تعصب یا خلا کی سخت جانچ کرنا۔

    اس میں تاریخی تعصبات (مثلاً نسل یا جنس کی بنیاد پر مختلف نتائج) کے لیے ڈیٹا کا آڈٹ کرنا اور ماڈل کی تربیت سے پہلے ان کی اصلاح یا توازن شامل ہے۔ جہاں کچھ گروہ کم نمائندگی رکھتے ہوں، وہاں ڈیٹا کی توسیع یا مصنوعی ڈیٹا جیسی تکنیکیں مددگار ثابت ہو سکتی ہیں۔

    NIST کی تحقیق نے تجویز کیا کہ زیادہ متنوع تربیتی ڈیٹا چہرہ شناخت میں زیادہ منصفانہ نتائج دے سکتا ہے۔ AI کے نتائج کی مسلسل نگرانی بھی تعصب کے مسائل کو جلدی شناخت کر سکتی ہے – جو ناپا جاتا ہے وہی قابو پایا جاتا ہے۔ اگر کوئی ادارہ اپنے الگورتھم کے فیصلوں میں آبادیاتی فرق کا سخت ڈیٹا جمع کرے، تو وہ غیر منصفانہ پیٹرنز کی نشاندہی کر کے انہیں دور کر سکتا ہے۔

  • منصفانہ الگورتھم ڈیزائن: ڈیولپرز کو چاہیے کہ وہ ماڈل کی تربیت میں انصاف کی پابندیاں اور تعصب کم کرنے کی تکنیکیں شعوری طور پر شامل کریں۔ اس میں ایسے الگورتھمز کا استعمال شامل ہو سکتا ہے جنہیں انصاف کے لیے ایڈجسٹ کیا جا سکے (صرف درستگی کے لیے نہیں)، یا گروہوں کے درمیان غلطی کی شرح کو برابر کرنے کی تکنیکیں اپنانا۔

    اب کئی اوپن سورس ٹولز اور فریم ورکس موجود ہیں جو ماڈلز کی جانچ اور ایڈجسٹمنٹ کے لیے استعمال ہوتے ہیں – مثلاً ڈیٹا کا دوبارہ وزن دینا، فیصلہ سازی کے معیار کو تبدیل کرنا، یا حساس خصوصیات کو سوچ سمجھ کر ہٹانا۔

    اہم بات یہ ہے کہ انصاف کی متعدد ریاضیاتی تعریفیں ہیں (جیسے مساوی پیش گوئی، مساوی غلط مثبت شرحیں، وغیرہ)، اور بعض اوقات یہ متصادم بھی ہو سکتی ہیں۔ صحیح انصاف کا انتخاب اخلاقی فیصلہ اور سیاق و سباق کا تقاضا کرتا ہے، صرف ڈیٹا کی تبدیلی نہیں۔

    اسی لیے AI ٹیموں کو مشورہ دیا جاتا ہے کہ وہ مخصوص ایپلیکیشن کے لیے انصاف کے معیار طے کرتے وقت ماہرین اور متاثرہ کمیونٹیز کے ساتھ کام کریں۔

  • انسانی نگرانی اور جوابدہی: کوئی بھی AI نظام بغیر انسانی جوابدہی کے کام نہیں کرنا چاہیے۔ انسانی نگرانی ضروری ہے تاکہ وہ تعصبات کو پکڑ سکے اور درست کر سکے جو مشین سیکھ سکتی ہے۔

    اس کا مطلب ہے اہم فیصلوں میں انسانوں کو شامل کرنا – مثلاً ایک بھرتی کرنے والا AI سے منتخب امیدواروں کا جائزہ لے، یا جج AI کے خطرے کے اسکور کو احتیاط سے دیکھے۔

    اس کے علاوہ، ذمہ داری کی واضح تقسیم ضروری ہے: اداروں کو یاد رکھنا چاہیے کہ وہ اپنے الگورتھمز کے فیصلوں کے لیے اتنے ہی ذمہ دار ہیں جتنا کہ ملازمین کے لیے ہوتے ہیں۔ AI فیصلوں کے باقاعدہ آڈٹ، تعصب کے اثرات کا جائزہ، اور AI کی وضاحت (explainability) جوابدہی کو برقرار رکھنے میں مدد دیتے ہیں۔

    شفافیت بھی ایک اہم ستون ہے: AI نظام کے کام کرنے کے طریقہ کار اور اس کی محدودیتوں کے بارے میں کھلے پن سے اعتماد پیدا ہوتا ہے اور آزادانہ جانچ پڑتال ممکن ہوتی ہے۔

    کچھ دائرہ اختیار میں اب اعلیٰ سطح کے الگورتھمک فیصلوں کے لیے شفافیت کو لازمی قرار دیا جا رہا ہے (مثلاً عوامی اداروں کو یہ بتانا کہ شہریوں پر اثر انداز ہونے والے فیصلوں میں الگورتھمز کیسے استعمال ہوتے ہیں)۔ مقصد یہ ہے کہ AI انسانی فیصلہ سازی کو بہتر بنائے بغیر اخلاقی فیصلے یا قانونی ذمہ داری کو ختم کیے۔

  • متنوع ٹیمیں اور شامل ترقی: ماہرین کی بڑھتی ہوئی رائے ہے کہ AI ڈیولپرز اور اسٹیک ہولڈرز میں تنوع کی قدر کو سمجھنا ضروری ہے۔ AI مصنوعات ان لوگوں کے نظریات اور کمزوریوں کی عکاسی کرتی ہیں جو انہیں بناتے ہیں۔

    اگر صرف ایک ہم جنس، ایک نسل، یا ایک ثقافتی پس منظر کے لوگ AI نظام ڈیزائن کریں، تو وہ اس بات کو نظر انداز کر سکتے ہیں کہ یہ دوسروں پر غیر منصفانہ اثر ڈال سکتا ہے۔

    متنوع آوازیں شامل کرنا – جن میں خواتین، نسلی اقلیتیں، اور سماجی علوم یا اخلاقیات کے ماہرین شامل ہیں – ڈیزائن اور جانچ کے عمل کو زیادہ ثقافتی طور پر حساس بناتا ہے۔

    یونسکو نے بتایا ہے کہ حالیہ اعداد و شمار کے مطابق، AI کے شعبے میں خواتین کی نمائندگی بہت کم ہے (صرف تقریباً 20% تکنیکی AI ملازمین اور 12% AI محققین خواتین ہیں)۔ نمائندگی بڑھانا صرف کام کی جگہ کی مساوات کا مسئلہ نہیں، بلکہ AI کے نتائج کو بہتر بنانے کا بھی معاملہ ہے: اگر AI نظام متنوع ٹیموں کے ذریعے تیار نہیں کیے جاتے، تو وہ متنوع صارفین کی ضروریات پوری کرنے یا سب کے حقوق کا تحفظ کرنے کے قابل نہیں ہوتے۔

    یونسکو کا Women4Ethical AI پلیٹ فارم تنوع کو فروغ دینے اور غیر امتیازی AI ڈیزائن کے بہترین طریقے شیئر کرنے کی کوشش کرتا ہے۔

  • قوانین اور اخلاقی رہنما اصول: حکومتیں اور بین الاقوامی ادارے اب فعال طور پر AI تعصب کے حل کے لیے قدم اٹھا رہے ہیں۔ 2021 میں، یونسکو کے رکن ممالک نے متفقہ طور پر مصنوعی ذہانت کی اخلاقیات پر سفارش کو اپنایا – جو AI اخلاقیات کے لیے پہلا عالمی فریم ورک ہے۔

    یہ شفافیت، انصاف، اور عدم امتیاز کے اصولوں کو شامل کرتا ہے، اور AI نظاموں کی انسانی نگرانی کی اہمیت پر زور دیتا ہے۔ یہ اصول ممالک کو AI کے حوالے سے پالیسیاں اور قوانین بنانے میں رہنمائی فراہم کرتے ہیں۔

    اسی طرح، یورپی یونین کا نیا AI ایکٹ (جو 2024 میں مکمل طور پر نافذ ہوگا) تعصب کی روک تھام کو ترجیح دیتا ہے۔ AI ایکٹ کے اہم مقاصد میں سے ایک اعلیٰ خطرے والے AI نظاموں میں امتیاز اور تعصب کو کم کرنا ہے۔

    یہ قانون حساس شعبوں (جیسے بھرتی، قرضہ، قانون نافذ کرنے والے ادارے وغیرہ) میں استعمال ہونے والے نظاموں کے لیے سخت جائزے کا تقاضا کرے گا تاکہ وہ منصفانہ ہوں اور محفوظ گروہوں کو غیر متناسب نقصان نہ پہنچائیں۔

    خلاف ورزیوں پر بھاری جرمانے عائد کیے جا سکتے ہیں، جو کمپنیوں کو تعصب کنٹرول بنانے کی ترغیب دیں گے۔

    وسیع قوانین کے علاوہ، کچھ مقامی حکومتوں نے مخصوص اقدامات کیے ہیں – مثلاً بارہ سے زائد بڑے شہروں (جیسے سان فرانسسکو، بوسٹن، اور منییاپولس) نے چہرہ شناختی ٹیکنالوجی کے پولیس استعمال پر پابندی لگا دی ہے کیونکہ اس میں نسلی تعصب اور شہری حقوق کے خطرات ظاہر ہوئے ہیں۔

    صنعتی سطح پر، معیاری تنظیمیں اور ٹیک کمپنیز اخلاقیات کو AI کی ترقی میں شامل کرنے کے لیے رہنما اصول اور ٹولز (جیسے انصاف کے ٹول کٹس اور آڈٹ فریم ورکس) شائع کر رہی ہیں۔

    قابل اعتماد AI” کی طرف یہ تحریک ان تمام کوششوں کا مجموعہ ہے، جو یقینی بناتی ہے کہ AI نظام قانونی، اخلاقی، اور مضبوط ہوں۔

>>> کیا آپ جاننا چاہتے ہیں:

مصنوعی ذہانت کا روزگار پر اثر

AI تعصب کو کم کرنے کی حکمت عملیاں


مصنوعی ذہانت اور الگورتھمک تعصب ایک عالمی چیلنج ہے جسے ہم ابھی مؤثر طریقے سے حل کرنا شروع کر رہے ہیں۔ اوپر دی گئی مثالیں اور کوششیں واضح کرتی ہیں کہ AI تعصب کوئی معمولی مسئلہ نہیں بلکہ یہ عالمی سطح پر معاشی مواقع، انصاف، صحت، اور سماجی ہم آہنگی کو متاثر کرتا ہے۔

خوش آئند بات یہ ہے کہ آگاہی میں نمایاں اضافہ ہوا ہے، اور ایک اتفاق رائے ابھر رہا ہے کہ AI کو انسان مرکز اور منصفانہ ہونا چاہیے۔

اسے حاصل کرنے کے لیے مسلسل نگرانی کی ضرورت ہوگی: AI نظاموں کی تعصب کے لیے جانچ، ڈیٹا اور الگورتھمز کی بہتری، مختلف اسٹیک ہولڈرز کی شمولیت، اور ٹیکنالوجی کی ترقی کے ساتھ قوانین کی تازہ کاری۔

بنیادی طور پر، الگورتھمک تعصب سے لڑنا AI کو مساوات اور انصاف کے ہمارے اقدار کے مطابق ڈھالنے کے بارے میں ہے۔ جیسا کہ یونسکو کی ڈائریکٹر جنرل آڈری آزولے نے کہا، یہاں تک کہ "[AI] مواد میں چھوٹے تعصبات بھی حقیقی دنیا میں عدم مساوات کو نمایاں طور پر بڑھا سکتے ہیں"۔

لہٰذا، غیر متعصب AI کی تلاش اس بات کو یقینی بنانے کے لیے ناگزیر ہے کہ ٹیکنالوجی معاشرے کے تمام طبقات کو بلند کرے نہ کہ پرانے تعصبات کو مضبوط کرے۔

اخلاقی اصولوں کو AI ڈیزائن میں ترجیح دے کر – اور انہیں ٹھوس اقدامات اور پالیسیوں کے ساتھ تقویت دے کر – ہم AI کی جدت کی طاقت کو انسانی وقار کے تحفظ کے ساتھ جوڑ سکتے ہیں۔

AI کا مستقبل ایسا ہونا چاہیے جہاں ذہین مشینیں انسانیت کی بہترین اقدار سے سیکھیں، نہ کہ ہمارے بدترین تعصبات سے، تاکہ ٹیکنالوجی واقعی ہر ایک کے لیے فائدہ مند ہو سکے۔