الذكاء الاصطناعي والتحيز الخوارزمي

تُستخدم خوارزميات الذكاء الاصطناعي بشكل متزايد في مختلف القطاعات، من التوظيف إلى التمويل، لكنها تحمل مخاطر التحيز والتمييز. يمكن للقرارات الآلية للذكاء الاصطناعي أن تعكس أو تضخم الظلم الاجتماعي إذا كانت بيانات التدريب متحيزة أو غير متنوعة. يساعد فهم التحيز الخوارزمي الشركات والمطورين والمستخدمين على التعرف على التحيز وإدارته وبناء أنظمة ذكاء اصطناعي أكثر عدلاً وشفافية.

هل تتساءل عن التحيزات الخوارزمية في الذكاء الاصطناعي؟ انضم إلى INVIAI لتتعرف أكثر على الذكاء الاصطناعي والتحيز الخوارزمي في هذا المقال!

الذكاء الاصطناعي (AI) أصبح جزءًا متزايدًا من حياتنا اليومية – من قرارات التوظيف إلى الرعاية الصحية والشرطة – لكن استخدامه أثار مخاوف بشأن التحيز الخوارزمي. يشير التحيز الخوارزمي إلى الانحيازات المنهجية وغير العادلة في مخرجات أنظمة الذكاء الاصطناعي، والتي غالبًا ما تعكس الصور النمطية الاجتماعية وعدم المساواة.

ببساطة، يمكن لخوارزمية الذكاء الاصطناعي أن تعيد إنتاج تحيزات بشرية موجودة في بيانات التدريب أو التصميم دون قصد، مما يؤدي إلى نتائج تمييزية.

قضية حرجة: أصبحت هذه القضية واحدة من أكثر التحديات إثارة للنقاش في أخلاقيات التكنولوجيا، مما جذب اهتمامًا عالميًا من الباحثين وصانعي السياسات وقادة الصناعة. يجعل الاعتماد السريع للذكاء الاصطناعي من الضروري معالجة التحيز الآن: بدون ضوابط أخلاقية، يخاطر الذكاء الاصطناعي بإعادة إنتاج التحيزات والتمييز الواقعي، مما يغذي الانقسامات الاجتماعية ويهدد حتى الحقوق الإنسانية الأساسية.

فيما يلي نستعرض أسباب التحيز الخوارزمي، أمثلة حقيقية على تأثيره، وكيف يسعى العالم لجعل الذكاء الاصطناعي أكثر عدلاً.

فهم التحيز الخوارزمي وأسبابه

عادةً ما ينشأ التحيز الخوارزمي ليس لأن الذكاء الاصطناعي "يريد" التمييز، بل بسبب عوامل بشرية. تتعلم أنظمة الذكاء الاصطناعي من البيانات وتتبع قواعد وضعها البشر – والبشر لديهم تحيزات (غالبًا غير واعية). إذا كانت بيانات التدريب منحازة أو تعكس تحيزات تاريخية، فمن المرجح أن يتعلم الذكاء الاصطناعي تلك الأنماط.

مثال: قد تستنتج خوارزمية فحص السير الذاتية المدربة على عقد من التوظيف في صناعة التكنولوجيا (حيث كان معظم المتقدمين المقبولين من الرجال) أن المرشحين الذكور مفضلون، مما يضر بالنساء.

بيانات تدريب متحيزة

التحيزات التاريخية المضمنة في مجموعات البيانات

  • مجموعات بيانات غير مكتملة
  • عينات غير تمثيلية
  • أنماط التمييز التاريخي

تصنيف بيانات متحيز

التحيزات البشرية في توضيح البيانات

  • تصنيفات ذاتية
  • افتراضات ثقافية
  • صور نمطية غير واعية

مشكلات التحسين

خوارزميات مُحسّنة للدقة على حساب العدالة

  • التركيز على الدقة الشاملة
  • إهمال الأقليات
  • تجاهل مقايضات العدالة

ترث خوارزميات الذكاء الاصطناعي تحيزات منشئيها وبياناتها ما لم تُتخذ خطوات متعمدة للتعرف على تلك التحيزات وتصحيحها.

— نتيجة بحثية رئيسية

من المهم ملاحظة أن التحيز الخوارزمي عادةً ما يكون غير مقصود. غالبًا ما تعتمد المؤسسات الذكاء الاصطناعي لجعل القرارات أكثر موضوعية، لكن إذا "زودت" النظام بمعلومات متحيزة أو لم تأخذ العدالة في الاعتبار أثناء التصميم، يمكن أن تكون النتيجة غير عادلة. يمكن لتحيز الذكاء الاصطناعي أن يوزع الفرص بشكل غير عادل وينتج نتائج غير دقيقة، مما يؤثر سلبًا على رفاهية الناس ويقوض الثقة في الذكاء الاصطناعي.

فهم سبب حدوث التحيز هو الخطوة الأولى نحو الحلول – وهي خطوة تأخذها الأوساط الأكاديمية والصناعة والحكومات على محمل الجد الآن.

فهم التحيز الخوارزمي وأسبابه
فهم الأسباب الجذرية للانحياز والتمييز الخوارزمي

أمثلة حقيقية على تحيز الذكاء الاصطناعي

التحيز في الذكاء الاصطناعي ليس مجرد قلق نظري؛ فقد كشفت العديد من الحالات الواقعية كيف يمكن أن يؤدي التحيز الخوارزمي إلى التمييز. تشمل الحالات البارزة لتحيز الذكاء الاصطناعي في قطاعات مختلفة:

نظام العدالة الجنائية

الحالة: خوارزمية التنبؤ بالعودة للجريمة في الولايات المتحدة

التأثير: متحيزة ضد المدعى عليهم السود، حيث تم تصنيف المدعى عليهم السود على أنهم عالي الخطورة والمدعى عليهم البيض على أنهم منخفضي الخطورة، مما زاد من الفوارق العرقية في الأحكام.

العاقبة: تضخيم التحيزات التاريخية في الشرطة والمحاكم

التوظيف والتجنيد

الحالة: أداة التوظيف بالذكاء الاصطناعي من أمازون

التأثير: تم إلغاؤها بعد التمييز ضد النساء. تم تدريبها على سير ذاتية سابقة معظمها من الرجال، وقللت من قيمة السير الذاتية التي تحتوي على كلمات مثل "النساء" أو الكليات النسائية فقط.

العاقبة: كانت ستستبعد النساء المؤهلات بشكل غير عادل من الوظائف التقنية

التحيز في الرعاية الصحية: خوارزمية تستخدمها مستشفيات أمريكية لتحديد المرضى الذين يحتاجون رعاية إضافية وُجد أنها تقلل من قيمة احتياجات المرضى السود الصحية مقارنة بالمرضى البيض. اعتمد النظام على الإنفاق الصحي: وبما أن الإنفاق على المرضى السود كان أقل تاريخيًا مع نفس مستوى المرض، استنتجت الخوارزمية خطأً أن المرضى السود "أكثر صحة".

تحيز تقنية التعرف على الوجه

أظهرت تقنية التعرف على الوجه تحيزًا كبيرًا في الدقة عبر الخطوط الديموغرافية. كشفت دراسة شاملة عام 2019 أجرتها المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) عن فروقات مقلقة:

تفاوت معدل الإيجابيات الكاذبة أعلى بمئة مرة
  • كانت احتمالية التعرف الخاطئ على وجوه الآسيويين والأمريكيين من أصل أفريقي أعلى من وجوه القوقازيين بمعدل 10 إلى 100 مرة
  • كانت أعلى معدلات الخطأ في التعرف للنساء السود في عمليات البحث من واحد إلى كثير
  • أدى هذا التحيز الخطير بالفعل إلى اعتقال أبرياء بشكل خاطئ

تحيز الذكاء الاصطناعي التوليدي والمحتوى

حتى أحدث أنظمة الذكاء الاصطناعي ليست بمنأى عن التحيز. كشفت دراسة اليونسكو لعام 2024 أن نماذج اللغة الكبيرة غالبًا ما تنتج صورًا نمطية رجعية عن الجنس والعرق:

وصف النساء

التركيز على الدور المنزلي

  • وُصفت بأدوار منزلية أربع مرات أكثر
  • مرتبطة بـ "المنزل" و"الأطفال"
  • صور نمطية جنسانية تقليدية
وصف الرجال

التركيز المهني

  • مرتبطة بـ "تنفيذي" و"راتب"
  • مرتبطة بالتقدم المهني
  • مصطلحات القيادة

تتزايد مخاطر الذكاء الاصطناعي فوق التفاوتات القائمة، مما يؤدي إلى مزيد من الضرر للفئات المهمشة بالفعل.

— تحذير اليونسكو

تؤكد هذه الأمثلة أن التحيز الخوارزمي ليس مشكلة بعيدة أو نادرة – إنه يحدث عبر المجالات اليوم. من فرص العمل إلى العدالة، ومن الرعاية الصحية إلى المعلومات عبر الإنترنت، يمكن لأنظمة الذكاء الاصطناعي المتحيزة أن تعيد إنتاج التمييز القائم بل وتزيده.

غالبًا ما تتحمل الفئات المتضررة تاريخيًا الأذى، مما يثير مخاوف أخلاقية وحقوقية جدية. وبما أن الملايين يستخدمون الذكاء الاصطناعي التوليدي في حياتهم اليومية، يمكن حتى للتحيزات الطفيفة في المحتوى أن تضخم التفاوتات في العالم الحقيقي، معززة الصور النمطية على نطاق واسع.

أمثلة حقيقية على تحيز الذكاء الاصطناعي
حالات واقعية توضح تحيز الذكاء الاصطناعي عبر قطاعات مختلفة

لماذا يهم تحيز الذكاء الاصطناعي؟

المخاطر المرتبطة بمعالجة تحيز الذكاء الاصطناعي كبيرة. إذا تُركت دون رقابة، يمكن للخوارزميات المتحيزة أن ترسخ التمييز النظامي تحت غطاء الحياد التكنولوجي. تحمل القرارات التي تتخذها (أو توجهها) أنظمة الذكاء الاصطناعي – مثل من يتم توظيفه، ومن يحصل على قرض أو إطلاق سراح مشروط، وكيف تستهدف الشرطة المراقبة – عواقب حقيقية على حياة الناس.

تأثير على حقوق الإنسان

يقوض مبادئ المساواة وعدم التمييز

  • حرمان من الفرص
  • فوارق اقتصادية
  • تهديدات للحرية الشخصية

تآكل الثقة

يضر بثقة الجمهور في التكنولوجيا

  • انخفاض تبني الذكاء الاصطناعي
  • تلف السمعة
  • عوائق الابتكار

تراجع الفوائد

يحد من الإمكانات الإيجابية للذكاء الاصطناعي

  • نتائج غير دقيقة
  • انخفاض الفعالية
  • عدم المساواة في الوصول إلى الفوائد

إذا كانت تلك القرارات منحازة بشكل غير عادل ضد أجناس أو أعراق أو مجتمعات معينة، تتسع الفوارق الاجتماعية. يمكن أن يؤدي ذلك إلى حرمان من الفرص، وفوارق اقتصادية، أو حتى تهديدات للحرية والسلامة الشخصية للفئات المتأثرة.

في الصورة الأكبر، يقوض التحيز الخوارزمي حقوق الإنسان والعدالة الاجتماعية، متعارضًا مع مبادئ المساواة وعدم التمييز التي تدعمها المجتمعات الديمقراطية.

تأثير على الأعمال: القرارات العادلة وغير المتحيزة في الذكاء الاصطناعي ليست فقط صحيحة أخلاقيًا، بل هي جيدة للأعمال والمجتمع لأن الابتكار المستدام يعتمد على الثقة. يمكن أن تؤدي الإخفاقات المعلنة للذكاء الاصطناعي بسبب التحيز إلى الإضرار بسمعة المنظمة ومصداقيتها.

علاوة على ذلك، يمكن أن يقلل التحيز الخوارزمي من الفوائد المحتملة للذكاء الاصطناعي. يعد الذكاء الاصطناعي بتحسين الكفاءة واتخاذ القرار، لكن إذا كانت نتائجه تمييزية أو غير دقيقة لفئات معينة من السكان، فلن يصل إلى تأثيره الإيجابي الكامل.

على سبيل المثال، أداة صحية بالذكاء الاصطناعي تعمل جيدًا لفئة سكانية واحدة ولكنها ضعيفة للآخرين ليست فعالة أو مقبولة حقًا. كما لاحظت منظمة التعاون الاقتصادي والتنمية، يحد التحيز في الذكاء الاصطناعي بشكل غير عادل من الفرص ويمكن أن يكلف الشركات سمعتها وثقة المستخدمين.

باختصار، معالجة التحيز ليست مجرد واجب أخلاقي بل أمر حاسم للاستفادة من فوائد الذكاء الاصطناعي لجميع الأفراد بطريقة عادلة.

لماذا يهم تحيز الذكاء الاصطناعي
الأهمية الحرجة لمعالجة تحيز الذكاء الاصطناعي للمجتمع

استراتيجيات التخفيف من تحيز الذكاء الاصطناعي

نظرًا لأن التحيز الخوارزمي أصبح معترفًا به على نطاق واسع، ظهرت مجموعة من الاستراتيجيات وأفضل الممارسات للتخفيف منه. يتطلب ضمان عدالة وشمولية أنظمة الذكاء الاصطناعي اتخاذ إجراءات في مراحل متعددة من التطوير والنشر:

تحسين ممارسات البيانات

نظرًا لأن البيانات المتحيزة هي السبب الجذري، فإن تحسين جودة البيانات أمر أساسي. يعني هذا استخدام مجموعات بيانات تدريب متنوعة وتمثيلية تشمل الأقليات، وفحص البيانات بدقة للكشف عن الانحياز أو الفجوات.

  • استخدام مجموعات بيانات تدريب متنوعة وتمثيلية تشمل الأقليات
  • تدقيق البيانات بدقة للكشف عن التحيزات التاريخية (اختلاف النتائج حسب العرق/الجنس)
  • تصحيح أو موازنة البيانات المتحيزة قبل تدريب النموذج
  • تطبيق زيادة البيانات أو البيانات الاصطناعية للمجموعات الممثلة تمثيلاً ناقصًا
  • تنفيذ مراقبة مستمرة لمخرجات الذكاء الاصطناعي للكشف المبكر عن مشكلات التحيز
نتيجة بحثية: أشارت أبحاث NIST إلى أن المزيد من تنوع بيانات التدريب يمكن أن يؤدي إلى نتائج أكثر عدالة في التعرف على الوجه. ما يُقاس يُدار – جمع بيانات دقيقة عن قرارات الخوارزميات حسب الفئات الديموغرافية يساعد في تحديد الأنماط غير العادلة.

تصميم خوارزميات عادلة

يجب على المطورين دمج قيود العدالة وتقنيات التخفيف من التحيز بوعي في تدريب النماذج. قد يشمل ذلك استخدام خوارزميات يمكن ضبطها للعدالة (وليس فقط الدقة).

1

تطبيق تقنيات العدالة

استخدام خوارزميات مضبوطة للعدالة، وتطبيق تقنيات لمعادلة معدلات الخطأ بين المجموعات، وإعادة وزن البيانات، أو تعديل عتبات القرار بشكل مدروس.

2

استخدام أدوات اختبار التحيز

الاستفادة من الأدوات والأطر مفتوحة المصدر لاختبار النماذج من حيث التحيز وإجراء التعديلات أثناء التطوير.

3

تحديد معايير العدالة

العمل مع خبراء المجال والمجتمعات المتأثرة عند تحديد معايير العدالة، حيث توجد تعريفات رياضية متعددة للعدالة وأحيانًا تتعارض.

ملاحظة مهمة: هناك تعريفات رياضية متعددة للعدالة (تكافؤ التنبؤ، تكافؤ معدلات الإيجابيات الكاذبة، إلخ)، وأحيانًا تتعارض. اختيار النهج الصحيح للعدالة يتطلب حكمًا أخلاقيًا وسياقًا، وليس مجرد تعديل بيانات.

الإشراف البشري والمساءلة

لا ينبغي لأي نظام ذكاء اصطناعي أن يعمل في فراغ دون مساءلة بشرية. الإشراف البشري ضروري لاكتشاف وتصحيح التحيزات التي قد يتعلمها الجهاز.

البشر في الحلقة

  • الموظفون الذين يراجعون المرشحين الذين فحصهم الذكاء الاصطناعي
  • القضاة الذين يأخذون درجات المخاطر التي يقدمها الذكاء الاصطناعي بحذر
  • المهنيون الطبيون الذين يتحققون من تشخيصات الذكاء الاصطناعي

إجراءات المساءلة

  • تدقيقات منتظمة لقرارات الذكاء الاصطناعي
  • تقييمات تأثير التحيز
  • تفسير منطق الذكاء الاصطناعي
  • تحديد واضح للمسؤوليات

يجب على المؤسسات أن تتذكر أنها مسؤولة عن القرارات التي تتخذها خوارزمياتها كما لو اتخذها موظفون. الشفافية هي ركيزة أخرى هنا: الانفتاح حول كيفية عمل نظام الذكاء الاصطناعي وقيوده المعروفة يمكن أن يبني الثقة ويسمح بالتدقيق المستقل.

تتجه بعض السلطات القضائية نحو إلزام الشفافية في القرارات الخوارزمية عالية المخاطر (مطالبة الوكالات العامة بالكشف عن كيفية استخدام الخوارزميات في القرارات التي تؤثر على المواطنين). الهدف هو ضمان أن يعزز الذكاء الاصطناعي اتخاذ القرار البشري دون استبدال الحكم الأخلاقي أو المسؤولية القانونية.

فرق متنوعة وتنظيم

تطوير شامل

يؤكد عدد متزايد من الخبراء على قيمة التنوع بين مطوري الذكاء الاصطناعي وأصحاب المصلحة. تعكس منتجات الذكاء الاصطناعي وجهات نظر ونقاط ضعف من يصنعونها.

النساء في الأدوار التقنية في الذكاء الاصطناعي 20%
الباحثات في الذكاء الاصطناعي 12%

التنظيم والإرشادات الأخلاقية

تتدخل الحكومات والهيئات الدولية الآن بنشاط لضمان معالجة تحيز الذكاء الاصطناعي:

  • توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي (2021): أول إطار عالمي معتمد بالإجماع، يرسخ مبادئ الشفافية والعدالة وعدم التمييز
  • قانون الذكاء الاصطناعي في الاتحاد الأوروبي (2024): يجعل منع التحيز أولوية، ويتطلب تقييمات صارمة للعدالة في أنظمة الذكاء الاصطناعي عالية المخاطر
  • إجراءات حكومية محلية: حظرت أكثر من اثنتي عشرة مدينة كبرى (سان فرانسيسكو، بوسطن، مينيابوليس) استخدام الشرطة لتقنية التعرف على الوجه بسبب التحيز العرقي
رد فعل الصناعة: تنشر منظمات المعايير وشركات التكنولوجيا إرشادات وتطور أدوات (مجموعات أدوات العدالة، أطر التدقيق) لمساعدة الممارسين على دمج الأخلاقيات في تطوير الذكاء الاصطناعي. يضمن التحرك نحو "الذكاء الاصطناعي الجدير بالثقة" أن تكون الأنظمة قانونية وأخلاقية وقوية في التطبيق.
استراتيجيات التخفيف من تحيز الذكاء الاصطناعي
استراتيجيات شاملة لتقليل تحيز الذكاء الاصطناعي وضمان العدالة

الطريق إلى الأمام: بناء ذكاء اصطناعي أخلاقي

الذكاء الاصطناعي والتحيز الخوارزمي تحدي عالمي بدأنا فقط في التعامل معه بفعالية. توضح الأمثلة والجهود السابقة أن تحيز الذكاء الاصطناعي ليس مشكلة هامشية – بل يؤثر على الفرص الاقتصادية والعدالة والصحة والتماسك الاجتماعي في جميع أنحاء العالم.

تطور إيجابي: الخبر السار هو أن الوعي قد ازداد بشكل حاد، وهناك إجماع ناشئ على أن الذكاء الاصطناعي يجب أن يكون متمحورًا حول الإنسان وعادلاً.

يتطلب تحقيق ذلك يقظة مستمرة: اختبار أنظمة الذكاء الاصطناعي باستمرار للكشف عن التحيز، وتحسين البيانات والخوارزميات، وإشراك أصحاب المصلحة المتنوعين، وتحديث اللوائح مع تطور التكنولوجيا.

في جوهره، مكافحة التحيز الخوارزمي تعني مواءمة الذكاء الاصطناعي مع قيمنا في المساواة والعدالة. كما أشارت المديرة العامة لليونسكو أودري أزولاي، حتى "التحيزات الصغيرة في محتوى الذكاء الاصطناعي يمكن أن تضخم بشكل كبير التفاوتات في العالم الحقيقي".

التحيزات الصغيرة في محتوى الذكاء الاصطناعي يمكن أن تضخم بشكل كبير التفاوتات في العالم الحقيقي.

— أودري أزولاي، المديرة العامة لليونسكو

لذلك، فإن السعي نحو ذكاء اصطناعي غير متحيز أمر حاسم لضمان أن التكنولوجيا ترتقي بجميع فئات المجتمع بدلاً من تعزيز التحيزات القديمة.

من خلال إعطاء الأولوية للمبادئ الأخلاقية في تصميم الذكاء الاصطناعي – ودعمها بإجراءات وسياسات ملموسة – يمكننا استغلال قوة الابتكار في الذكاء الاصطناعي مع حماية كرامة الإنسان.

رؤية للمستقبل: الطريق إلى الأمام للذكاء الاصطناعي هو حيث تتعلم الآلات الذكية من أفضل قيم الإنسانية، وليس من أسوأ تحيزاتها، مما يمكّن التكنولوجيا من إفادة الجميع حقًا.
استكشف المزيد من المقالات ذات الصلة
96 مقالات
روزي ها هي كاتبة في Inviai، متخصصة في مشاركة المعرفة والحلول المتعلقة بالذكاء الاصطناعي. بفضل خبرتها في البحث وتطبيق الذكاء الاصطناعي في مجالات متعددة مثل الأعمال التجارية، إنشاء المحتوى، والأتمتة، تقدم روزي ها مقالات سهلة الفهم، عملية وملهمة. تتمثل مهمة روزي ها في مساعدة الجميع على استغلال الذكاء الاصطناعي بفعالية لتعزيز الإنتاجية وتوسيع آفاق الإبداع.
بحث