مصنوعی ذہانت اور الگورتھمک تعصب

مصنوعی ذہانت کے الگورتھمز مختلف شعبوں میں بڑھتے ہوئے استعمال ہو رہے ہیں، جیسے کہ بھرتی اور مالیات، لیکن ان میں تعصب اور امتیاز کے خطرات بھی شامل ہیں۔ خودکار AI فیصلے اگر تربیتی ڈیٹا متعصب یا غیر متنوع ہو تو سماجی ناانصافیوں کی عکاسی یا ان میں اضافہ کر سکتے ہیں۔ الگورتھمک تعصب کو سمجھنا کاروبار، ڈیولپرز، اور صارفین کو منصفانہ اور شفاف AI نظام بنانے میں مدد دیتا ہے۔

کیا آپ مصنوعی ذہانت میں الگورتھمک تعصبات کے بارے میں جاننا چاہتے ہیں؟ اس مضمون میں INVIAI کے ساتھ مصنوعی ذہانت اور الگورتھمک تعصب کے بارے میں مزید جانیں!

مصنوعی ذہانت (AI) ہماری روزمرہ زندگیوں میں بڑھتی ہوئی جگہ بنا رہی ہے – بھرتی کے فیصلوں سے لے کر صحت کی دیکھ بھال اور پولیسنگ تک – لیکن اس کے استعمال نے الگورتھمک تعصب کے حوالے سے خدشات پیدا کیے ہیں۔ الگورتھمک تعصب سے مراد AI نظاموں کے نتائج میں منظم اور غیر منصفانہ تعصبات ہیں، جو اکثر سماجی دقیانوسی تصورات اور عدم مساوات کی عکاسی کرتے ہیں۔

بنیادی طور پر، AI الگورتھم غیر ارادی طور پر اپنے تربیتی ڈیٹا یا ڈیزائن میں موجود انسانی تعصبات کو دہرا سکتا ہے، جس سے امتیازی نتائج سامنے آتے ہیں۔

اہم مسئلہ: یہ مسئلہ ٹیکنالوجی کی اخلاقیات میں سب سے زیادہ زیر بحث چیلنجز میں سے ایک بن چکا ہے، جس نے محققین، پالیسی سازوں، اور صنعت کے رہنماؤں کی عالمی توجہ حاصل کی ہے۔ AI کے تیز رفتار اپنانے کی وجہ سے اب تعصب کو فوری طور پر حل کرنا ضروری ہے: بغیر اخلاقی حفاظتی اقدامات کے، AI حقیقی دنیا کے تعصبات اور امتیاز کو دہرا سکتا ہے، سماجی تقسیم کو بڑھا سکتا ہے اور بنیادی انسانی حقوق کو بھی خطرے میں ڈال سکتا ہے۔

نیچے ہم الگورتھمک تعصب کی وجوہات، اس کے حقیقی دنیا میں اثرات کی مثالیں، اور AI کو زیادہ منصفانہ بنانے کی کوششوں کا جائزہ لیتے ہیں۔

الگورتھمک تعصب اور اس کی وجوہات کو سمجھنا

الگورتھمک تعصب عام طور پر اس لیے نہیں ہوتا کہ AI "تعصب کرنا چاہتا ہے"، بلکہ انسانی عوامل کی وجہ سے ہوتا ہے۔ AI نظام ڈیٹا سے سیکھتے ہیں اور لوگوں کے بنائے ہوئے قواعد کی پیروی کرتے ہیں – اور لوگ تعصبات رکھتے ہیں (اکثر غیر شعوری)۔ اگر تربیتی ڈیٹا متعصب یا تاریخی تعصبات کی عکاسی کرتا ہے، تو AI بھی وہی پیٹرنز سیکھے گا۔

مثال: ایک ریزیومے اسکریننگ AI جو ٹیکنالوجی صنعت کی دہائی پر مبنی بھرتی کے ڈیٹا پر تربیت یافتہ ہو (جہاں زیادہ تر منتخب امیدوار مرد تھے) مرد امیدواروں کو ترجیح دے سکتا ہے، جس سے خواتین کو نقصان پہنچتا ہے۔

متعصب تربیتی ڈیٹا

ڈیٹا سیٹس میں شامل تاریخی تعصبات

  • نامکمل ڈیٹا سیٹس
  • غیر نمائندہ نمونے
  • تاریخی امتیازی پیٹرنز

متعصب ڈیٹا لیبلنگ

ڈیٹا کی تشریح میں انسانی تعصبات

  • ذاتی نوعیت کی درجہ بندی
  • ثقافتی مفروضے
  • غیر شعوری دقیانوسی تصورات

بہتری کے مسائل

الگورتھمز کو درستگی کے لیے بہتر بنایا گیا، منصفانہ ہونے کے بجائے

  • مجموعی درستگی پر توجہ
  • اقلیتوں کی نظر اندازگی
  • انصاف کے تبادلے کو نظر انداز کرنا

AI الگورتھمز اپنے بنانے والوں اور ڈیٹا کے تعصبات کو وراثت میں لیتے ہیں جب تک کہ جان بوجھ کر ان تعصبات کو پہچان کر درست نہ کیا جائے۔

— اہم تحقیقی نتیجہ

یہ بات قابل غور ہے کہ الگورتھمک تعصب عام طور پر غیر ارادی ہوتا ہے۔ ادارے اکثر AI کو زیادہ معروضی فیصلے کرنے کے لیے اپناتے ہیں، لیکن اگر وہ نظام کو متعصب معلومات فراہم کریں یا ڈیزائن میں مساوات کو مدنظر نہ رکھیں، تو نتیجہ پھر بھی غیر منصفانہ ہو سکتا ہے۔ AI تعصب مواقع کی غیر منصفانہ تقسیم اور غلط نتائج پیدا کر سکتا ہے، جس سے لوگوں کی فلاح و بہبود متاثر ہوتی ہے اور AI پر اعتماد کم ہوتا ہے۔

تعصب کی وجوہات کو سمجھنا حل کی طرف پہلا قدم ہے – اور یہ وہ قدم ہے جو تعلیمی، صنعتی، اور حکومتی ادارے اب سنجیدگی سے اٹھا رہے ہیں۔

الگورتھمک تعصب اور اس کی وجوہات کو سمجھنا
الگورتھمک تعصب اور امتیاز کی بنیادی وجوہات کو سمجھنا

AI تعصب کی حقیقی دنیا کی مثالیں

AI میں تعصب صرف ایک نظریاتی مسئلہ نہیں ہے؛ متعدد حقیقی دنیا کے کیسز نے ظاہر کیا ہے کہ الگورتھمک تعصب امتیاز کا باعث بن سکتا ہے۔ مختلف شعبوں میں AI تعصب کی نمایاں مثالیں شامل ہیں:

فوجداری انصاف کا نظام

کیس: امریکہ کا ریسیدیوسم پیشن گوئی الگورتھم

اثر: سیاہ فام ملزمان کے خلاف تعصب، اکثر سیاہ فام ملزمان کو زیادہ خطرناک اور سفید فام ملزمان کو کم خطرناک سمجھا گیا، جس سے نسلی امتیازات میں اضافہ ہوا۔

نتیجہ: پولیسنگ اور عدالتوں میں تاریخی تعصبات کو بڑھاوا دیا گیا

بھرتی اور تقرری

کیس: ایمیزون کا AI بھرتی کا آلہ

اثر: خواتین کے خلاف امتیاز کی وجہ سے بند کر دیا گیا۔ زیادہ تر مردوں کے ریزیومے پر تربیت یافتہ، "خواتین" یا تمام خواتین کالجوں والے ریزیومے کو کم درجہ دیا۔

نتیجہ: تکنیکی ملازمتوں کے لیے اہل خواتین کو غیر منصفانہ طور پر خارج کیا جاتا

صحت کی دیکھ بھال میں تعصب: امریکہ کے ہسپتالوں میں استعمال ہونے والے ایک الگورتھم نے سیاہ فام مریضوں کی صحت کی ضروریات کو سفید فام مریضوں کے مقابلے میں کم تر سمجھا۔ نظام صحت کی دیکھ بھال کے اخراجات کی بنیاد پر پیشن گوئی کرتا تھا: چونکہ تاریخی طور پر سیاہ فام مریضوں پر کم خرچ کیا گیا تھا، الگورتھم نے غلطی سے یہ نتیجہ نکالا کہ سیاہ فام مریض "صحت مند" ہیں۔

چہرہ شناختی ٹیکنالوجی میں تعصب

چہرہ شناختی ٹیکنالوجی نے آبادیاتی خطوط پر نمایاں تعصب دکھایا ہے۔ امریکہ کے نیشنل انسٹی ٹیوٹ آف اسٹینڈرڈز اینڈ ٹیکنالوجی (NIST) کی 2019 کی جامع تحقیق نے خطرناک فرق ظاہر کیے:

جھوٹے مثبت کی شرح میں فرق 100 گنا زیادہ
  • ایشین اور افریقی-امریکی چہروں کے لیے جھوٹے مثبت شناخت کے امکانات کاکیشین چہروں کے مقابلے میں 10 سے 100 گنا زیادہ تھے
  • سب سے زیادہ غلط شناخت کی شرح سیاہ فام خواتین کے لیے ایک سے کئی تلاشوں میں تھی
  • خطرناک تعصب کی وجہ سے بے گناہ افراد کی غلط گرفتاری ہو چکی ہے

جنریٹو AI اور مواد میں تعصب

جدید ترین AI نظام بھی اس سے محفوظ نہیں ہیں۔ 2024 کی UNESCO کی تحقیق نے ظاہر کیا کہ بڑے زبان کے ماڈلز اکثر پسماندہ صنفی اور نسلی دقیانوسی تصورات پیدا کرتے ہیں:

خواتین کی تفصیلات

گھریلو توجہ

  • گھریلو کرداروں میں 4 گنا زیادہ بیان کیا جاتا ہے
  • "گھر" اور "بچے" سے منسلک
  • روایتی صنفی دقیانوسی تصورات
مردوں کی تفصیلات

پیشہ ورانہ توجہ

  • "ایگزیکٹو" اور "تنخواہ" سے منسلک
  • "کیریئر" کی ترقی سے جڑا ہوا
  • رہنمائی کی اصطلاحات

AI کے خطرات موجودہ عدم مساوات پر مزید بوجھ ڈال رہے ہیں، جس سے پہلے سے پسماندہ گروہوں کو مزید نقصان پہنچ رہا ہے۔

— UNESCO کی وارننگ

یہ مثالیں واضح کرتی ہیں کہ الگورتھمک تعصب کوئی دور یا نایاب مسئلہ نہیں ہے – یہ آج مختلف شعبوں میں ہو رہا ہے۔ ملازمت کے مواقع سے لے کر انصاف، صحت کی دیکھ بھال سے آن لائن معلومات تک، متعصب AI نظام موجودہ امتیاز کو دہرا سکتے ہیں اور بڑھا سکتے ہیں۔

نقصان اکثر تاریخی طور پر پسماندہ گروہوں کو پہنچتا ہے، جو سنگین اخلاقی اور انسانی حقوق کے مسائل کو جنم دیتا ہے۔ چونکہ لاکھوں لوگ روزمرہ زندگی میں جنریٹو AI استعمال کر رہے ہیں، مواد میں معمولی تعصبات بھی حقیقی دنیا میں عدم مساوات کو بڑھا سکتے ہیں اور دقیانوسی تصورات کو وسیع پیمانے پر مضبوط کر سکتے ہیں۔

AI تعصب کی حقیقی دنیا کی مثالیں
مختلف شعبوں میں AI تعصب کی حقیقی دنیا کی مثالیں

AI تعصب کیوں اہم ہے؟

AI تعصب کو حل کرنے کے لیے داؤ بہت بڑے ہیں۔ اگر نظر انداز کیا گیا تو متعصب الگورتھمز نظامی امتیاز کو ٹیکنالوجی کی غیر جانبداری کے پردے تلے مضبوط کر سکتے ہیں۔ AI کے ذریعے کیے گئے (یا رہنمائی کیے گئے) فیصلے – جیسے کہ کون بھرتی ہوتا ہے، کون قرض یا پارول حاصل کرتا ہے، پولیس کس کی نگرانی کرتی ہے – لوگوں کی زندگیوں پر حقیقی اثرات رکھتے ہیں۔

انسانی حقوق پر اثرات

برابری اور عدم امتیاز کے اصولوں کو کمزور کرتا ہے

  • مواقع کی فراہمی سے انکار
  • معاشی عدم مساوات
  • ذاتی آزادی کے خطرات

اعتماد میں کمی

ٹیکنالوجی پر عوامی اعتماد کو نقصان پہنچاتا ہے

  • AI کے اپنانے میں کمی
  • ساکھ کو نقصان
  • جدت میں رکاوٹیں

فوائد میں کمی

AI کی مثبت صلاحیتوں کو محدود کرتا ہے

  • غلط نتائج
  • موثر کارکردگی میں کمی
  • فوائد تک غیر مساوی رسائی

اگر یہ فیصلے مخصوص جنس، نسل، یا کمیونٹیز کے خلاف غیر منصفانہ ہوں، تو سماجی عدم مساوات بڑھ جاتی ہے۔ اس سے مواقع کی فراہمی سے انکار، معاشی فرق، یا متاثرہ گروہوں کے لیے ذاتی آزادی اور سلامتی کے خطرات پیدا ہو سکتے ہیں۔

وسیع تر منظر نامے میں، الگورتھمک تعصب انسانی حقوق اور سماجی انصاف کو کمزور کرتا ہے، جو جمہوری معاشروں میں برابری اور عدم امتیاز کے اصولوں کے خلاف ہے۔

کاروباری اثرات: منصفانہ اور غیر متعصب AI فیصلے صرف اخلاقی طور پر درست نہیں، بلکہ کاروبار اور معاشرے کے لیے بھی فائدہ مند ہیں کیونکہ پائیدار جدت اعتماد پر منحصر ہے۔ تعصب کی وجہ سے AI کی زیادہ نمایاں ناکامیاں کسی ادارے کی ساکھ اور قانونی حیثیت کو نقصان پہنچا سکتی ہیں۔

مزید برآں، الگورتھمک تعصب AI کے ممکنہ فوائد کو کم کر سکتا ہے۔ AI کی صلاحیت ہے کہ وہ کارکردگی اور فیصلہ سازی کو بہتر بنائے، لیکن اگر اس کے نتائج آبادی کے کچھ حصوں کے لیے امتیازی یا غلط ہوں، تو یہ اپنی مکمل مثبت تاثیر حاصل نہیں کر سکتا۔

مثال کے طور پر، ایک AI صحت کا آلہ جو ایک آبادی کے لیے اچھا کام کرتا ہے لیکن دوسروں کے لیے خراب، واقعی مؤثر یا قابل قبول نہیں ہے۔ جیسا کہ OECD نے مشاہدہ کیا، AI میں تعصب مواقع کو غیر منصفانہ طور پر محدود کرتا ہے اور کاروبار کی ساکھ اور صارفین کے اعتماد کو نقصان پہنچا سکتا ہے۔

مختصراً، تعصب کو حل کرنا صرف اخلاقی ضرورت نہیں بلکہ AI کے فوائد کو تمام افراد کے لیے منصفانہ طریقے سے حاصل کرنے کے لیے بھی ضروری ہے۔

AI تعصب کیوں اہم ہے
معاشرے کے لیے AI تعصب کو حل کرنے کی اہمیت

AI تعصب کو کم کرنے کی حکمت عملیاں

چونکہ الگورتھمک تعصب اب وسیع پیمانے پر تسلیم کیا جا چکا ہے، اس کو کم کرنے کے لیے متعدد حکمت عملی اور بہترین طریقے سامنے آئے ہیں۔ AI نظاموں کو منصفانہ اور شامل بنانے کے لیے ترقی اور نفاذ کے مختلف مراحل پر اقدامات ضروری ہیں:

بہتر ڈیٹا کے طریقے

چونکہ متعصب ڈیٹا بنیادی وجہ ہے، ڈیٹا کے معیار کو بہتر بنانا کلیدی ہے۔ اس کا مطلب ہے متنوع، نمائندہ تربیتی ڈیٹا سیٹس استعمال کرنا جو اقلیتوں کو شامل کریں، اور تعصب یا خلا کے لیے سخت جانچ کرنا۔

  • متنوع، نمائندہ تربیتی ڈیٹا سیٹس استعمال کریں جو اقلیتوں کو شامل کریں
  • تاریخی تعصبات کے لیے ڈیٹا کا سخت آڈٹ کریں (نسل/صنف کے لحاظ سے مختلف نتائج)
  • ماڈل کی تربیت سے پہلے متعصب ڈیٹا کو درست یا متوازن کریں
  • کم نمائندگی والے گروہوں کے لیے ڈیٹا میں اضافہ یا مصنوعی ڈیٹا استعمال کریں
  • تعصب کے مسائل کی ابتدائی نشاندہی کے لیے AI کے نتائج کی مسلسل نگرانی کریں
تحقیقی نتیجہ: NIST کی تحقیق نے تجویز کیا کہ متنوع تربیتی ڈیٹا چہرہ شناخت میں زیادہ منصفانہ نتائج دے سکتا ہے۔ جو ماپا جاتا ہے وہ منظم کیا جاتا ہے – آبادیاتی بنیاد پر الگورتھمک فیصلوں کا سخت ڈیٹا جمع کرنا غیر منصفانہ پیٹرنز کی شناخت میں مدد دیتا ہے۔

منصفانہ الگورتھم ڈیزائن

ڈیولپرز کو چاہیے کہ وہ ماڈل کی تربیت میں انصاف کی پابندیاں اور تعصب کم کرنے کی تکنیکیں شعوری طور پر شامل کریں۔ اس میں ایسے الگورتھمز کا استعمال شامل ہو سکتا ہے جنہیں انصاف کے لیے ایڈجسٹ کیا جا سکے (صرف درستگی کے لیے نہیں)۔

1

انصاف کی تکنیکیں اپنائیں

ایسے الگورتھمز استعمال کریں جو انصاف کے لیے ایڈجسٹ کیے جا سکیں، گروپوں کے درمیان غلطیوں کی شرح کو برابر کرنے کی تکنیکیں لگائیں، ڈیٹا کو دوبارہ وزن دیں، یا فیصلہ سازی کے معیار کو سوچ سمجھ کر تبدیل کریں۔

2

تعصب جانچنے کے اوزار استعمال کریں

اوپن سورس ٹولز اور فریم ورکس کا استعمال کریں تاکہ ماڈلز میں تعصب کی جانچ کی جا سکے اور ترقی کے دوران اصلاح کی جا سکے۔

3

انصاف کے معیار متعین کریں

انصاف کے معیار متعین کرتے وقت ماہرین اور متاثرہ کمیونٹیز کے ساتھ کام کریں، کیونکہ انصاف کی متعدد ریاضیاتی تعریفیں موجود ہیں اور بعض اوقات وہ متصادم ہوتی ہیں۔

اہم نوٹ: انصاف کی متعدد ریاضیاتی تعریفیں ہیں (جیسے مساوی پیش گوئی، مساوی جھوٹے مثبت کی شرح، وغیرہ)، اور بعض اوقات وہ متصادم ہوتی ہیں۔ صحیح انصاف کا طریقہ منتخب کرنا اخلاقی فیصلہ اور سیاق و سباق کا تقاضا کرتا ہے، صرف ڈیٹا کی تبدیلی نہیں۔

انسانی نگرانی اور جوابدہی

کوئی بھی AI نظام بغیر انسانی جوابدہی کے کام نہیں کرنا چاہیے۔ انسانی نگرانی تعصبات کو پکڑنے اور درست کرنے کے لیے ضروری ہے جو مشین سیکھ سکتی ہے۔

انسانی شمولیت

  • بھرتی کرنے والے AI سے منتخب امیدواروں کا جائزہ لیتے ہیں
  • جج AI خطرے کے اسکور کو احتیاط سے دیکھتے ہیں
  • طبی ماہرین AI تشخیص کی تصدیق کرتے ہیں

جوابدہی کے اقدامات

  • AI فیصلوں کا باقاعدہ آڈٹ
  • تعصب کے اثرات کا جائزہ
  • قابل وضاحت AI کی منطق
  • واضح ذمہ داری کی تقسیم

اداروں کو یاد رکھنا چاہیے کہ وہ اپنے الگورتھمز کے ذریعے کیے گئے فیصلوں کے ذمہ دار ہیں، جیسے کہ وہ ملازمین کے ذریعے کیے گئے ہوں۔ شفافیت بھی ایک اہم ستون ہے: AI نظام کے کام کرنے کے طریقہ کار اور اس کی محدودیتوں کے بارے میں کھلے پن سے اعتماد پیدا ہوتا ہے اور آزادانہ جانچ ممکن ہوتی ہے۔

کچھ دائرہ اختیار ایسے قوانین بنا رہے ہیں جو اعلیٰ خطرے والے الگورتھمک فیصلوں کے لیے شفافیت کو لازمی قرار دیتے ہیں (جس میں عوامی اداروں کو شہریوں پر اثر انداز ہونے والے فیصلوں میں الگورتھمز کے استعمال کا انکشاف کرنا ہوتا ہے)۔ مقصد یہ ہے کہ AI انسانی فیصلہ سازی کو بڑھائے بغیر اخلاقی فیصلے یا قانونی ذمہ داری کو تبدیل کیے۔

متنوع ٹیمیں اور ضابطہ کاری

شامل ترقی

ماہرین کی بڑھتی ہوئی رائے ہے کہ AI ڈیولپرز اور اسٹیک ہولڈرز میں تنوع کی قدر کو سمجھنا ضروری ہے۔ AI مصنوعات ان لوگوں کے نظریات اور اندھے دھبوں کی عکاسی کرتی ہیں جو انہیں بناتے ہیں۔

AI میں خواتین کی تکنیکی کرداروں میں شرکت 20%
خواتین AI محققین 12%

ضابطہ کاری اور اخلاقی رہنما اصول

حکومتیں اور بین الاقوامی ادارے اب فعال طور پر AI تعصب کو حل کرنے کے لیے قدم اٹھا رہے ہیں:

  • UNESCO کی AI اخلاقیات کی سفارش (2021): پہلا عالمی فریم ورک جو اتفاق رائے سے اپنایا گیا، شفافیت، انصاف، اور عدم امتیاز کے اصولوں کو شامل کرتا ہے
  • EU AI ایکٹ (2024): تعصب کی روک تھام کو ترجیح دیتا ہے، اعلیٰ خطرے والے AI نظاموں میں انصاف کے سخت جائزے کا تقاضا کرتا ہے
  • مقامی حکومتی اقدامات: بارہ سے زائد بڑے شہروں (سان فرانسسکو، بوسٹن، منیپولیس) نے نسلی تعصب کی وجہ سے پولیس کے چہرہ شناخت کے استعمال پر پابندی لگا دی ہے
صنعتی ردعمل: معیاری تنظیمیں اور ٹیکنالوجی کمپنیاں اخلاقیات کو AI ترقی میں شامل کرنے کے لیے رہنما اصول اور اوزار (انصاف کے ٹول کٹس، آڈٹ فریم ورکس) شائع کر رہی ہیں۔ "قابل اعتماد AI" کی تحریک یقینی بناتی ہے کہ نظام قانونی، اخلاقی، اور عملی طور پر مضبوط ہوں۔
AI تعصب کو کم کرنے کی حکمت عملیاں
AI تعصب کو کم کرنے اور انصاف کو یقینی بنانے کے لیے جامع حکمت عملیاں

آگے کا راستہ: اخلاقی AI کی تعمیر

مصنوعی ذہانت اور الگورتھمک تعصب ایک عالمی چیلنج ہے جسے ہم ابھی مؤثر طریقے سے حل کرنا شروع کر رہے ہیں۔ اوپر دی گئی مثالیں اور کوششیں واضح کرتی ہیں کہ AI تعصب کوئی مخصوص مسئلہ نہیں بلکہ یہ معاشی مواقع، انصاف، صحت، اور سماجی ہم آہنگی کو عالمی سطح پر متاثر کرتا ہے۔

مثبت پیش رفت: خوش آئند بات یہ ہے کہ آگاہی میں نمایاں اضافہ ہوا ہے، اور ایک اتفاق رائے ابھر رہا ہے کہ AI کو انسان مرکز اور منصفانہ ہونا چاہیے۔

اسے حاصل کرنے کے لیے مسلسل نگرانی کی ضرورت ہوگی: AI نظاموں کی تعصب کے لیے مسلسل جانچ، ڈیٹا اور الگورتھمز کی بہتری، متنوع اسٹیک ہولڈرز کی شمولیت، اور ٹیکنالوجی کی ترقی کے ساتھ ضوابط کی تازہ کاری۔

بنیادی طور پر، الگورتھمک تعصب سے لڑنا AI کو ہماری برابری اور انصاف کی اقدار کے مطابق لانے کے بارے میں ہے۔ جیسا کہ UNESCO کی ڈائریکٹر جنرل آڈری آزولے نے کہا، یہاں تک کہ "AI کے مواد میں چھوٹے تعصبات حقیقی دنیا میں عدم مساوات کو نمایاں طور پر بڑھا سکتے ہیں"۔

AI کے مواد میں چھوٹے تعصبات حقیقی دنیا میں عدم مساوات کو نمایاں طور پر بڑھا سکتے ہیں۔

— آڈری آزولے، UNESCO کی ڈائریکٹر جنرل

لہٰذا، غیر متعصب AI کی تلاش اس بات کو یقینی بنانے کے لیے ضروری ہے کہ ٹیکنالوجی معاشرے کے تمام طبقات کو بلند کرے نہ کہ پرانے تعصبات کو مضبوط کرے۔

AI ڈیزائن میں اخلاقی اصولوں کو ترجیح دے کر – اور انہیں ٹھوس اقدامات اور پالیسیوں کے ساتھ سپورٹ کر کے – ہم AI کی جدت کی طاقت کو استعمال کر سکتے ہیں اور انسانی وقار کا تحفظ بھی کر سکتے ہیں۔

مستقبل کا وژن: AI کے لیے آگے کا راستہ وہ ہے جہاں ذہین مشینیں انسانیت کی بہترین اقدار سے سیکھیں، نہ کہ ہمارے بدترین تعصبات سے، تاکہ ٹیکنالوجی واقعی ہر ایک کے لیے فائدہ مند ہو۔
مزید متعلقہ مضامین دریافت کریں
96 مضامین
روزی ہا Inviai کی مصنفہ ہیں، جو مصنوعی ذہانت کے بارے میں معلومات اور حل فراہم کرنے میں مہارت رکھتی ہیں۔ تحقیق اور AI کو کاروبار، مواد کی تخلیق اور خودکار نظامات جیسے مختلف شعبوں میں نافذ کرنے کے تجربے کے ساتھ، روزی ہا آسان فہم، عملی اور متاثر کن مضامین پیش کرتی ہیں۔ روزی ہا کا مشن ہے کہ وہ ہر فرد کو AI کے مؤثر استعمال میں مدد دیں تاکہ پیداواریت میں اضافہ اور تخلیقی صلاحیتوں کو وسعت دی جا سکے۔
تلاش کریں