هل تتساءل عن التحيزات الخوارزمية في الذكاء الاصطناعي؟ انضم إلى INVIAI لتتعرف أكثر على الذكاء الاصطناعي والتحيز الخوارزمي في هذا المقال!
يُدمج الذكاء الاصطناعي (AI) بشكل متزايد في حياتنا اليومية – من قرارات التوظيف إلى الرعاية الصحية وإنفاذ القانون – لكن استخدامه أثار مخاوف بشأن التحيز الخوارزمي. يشير التحيز الخوارزمي إلى الانحيازات المنهجية وغير العادلة في مخرجات أنظمة الذكاء الاصطناعي، والتي غالبًا ما تعكس الصور النمطية الاجتماعية وعدم المساواة.
ببساطة، يمكن لخوارزمية الذكاء الاصطناعي أن تعيد إنتاج التحيزات البشرية الموجودة في بيانات التدريب أو التصميم دون قصد، مما يؤدي إلى نتائج تمييزية.
أصبح هذا الموضوع من أكثر التحديات إثارة للنقاش في أخلاقيات التكنولوجيا، مما جذب اهتمامًا عالميًا من الباحثين وصانعي السياسات وقادة الصناعة. يجعل الاعتماد السريع للذكاء الاصطناعي من الضروري معالجة التحيز الآن: فبدون ضوابط أخلاقية، يخاطر الذكاء الاصطناعي بتكرار التحيزات والتمييز الواقعيين، مما يعزز الانقسامات الاجتماعية ويهدد حتى الحقوق الإنسانية الأساسية.
فيما يلي نستعرض أسباب التحيز الخوارزمي، أمثلة واقعية على تأثيره، وكيف يسعى العالم لجعل الذكاء الاصطناعي أكثر عدلاً.
فهم التحيز الخوارزمي وأسبابه
ينشأ التحيز الخوارزمي عادةً ليس لأن الذكاء الاصطناعي "يريد" التمييز، بل بسبب عوامل بشرية. تتعلم أنظمة الذكاء الاصطناعي من البيانات وتتبع قواعد وضعها البشر – والبشر لديهم تحيزات (غالبًا غير واعية).
إذا كانت بيانات التدريب منحازة أو تعكس تحاملات تاريخية، فمن المرجح أن تتعلم الخوارزمية تلك الأنماط.
على سبيل المثال، قد تستنتج خوارزمية فحص السير الذاتية المدربة على عشر سنوات من توظيف قطاع التكنولوجيا (حيث كان معظم المتقدمين المقبولين من الرجال) أن المرشحين الذكور مفضلون، مما يضر بالنساء. تشمل الأسباب الشائعة الأخرى البيانات غير المكتملة أو غير الممثلة، تصنيف البيانات المتحيز، أو الخوارزميات المصممة لتحقيق دقة عامة دون مراعاة العدالة للمجموعات الأقلية.
باختصار، ترث خوارزميات الذكاء الاصطناعي تحيزات منشئيها وبياناتها ما لم تُتخذ خطوات واعية للتعرف على هذه التحيزات وتصحيحها.
من المهم ملاحظة أن التحيز الخوارزمي عادةً ما يكون غير مقصود. غالبًا ما تعتمد المؤسسات الذكاء الاصطناعي لجعل القرارات أكثر موضوعية، لكن إذا "زودت" النظام بمعلومات متحيزة أو لم تأخذ العدالة في الاعتبار أثناء التصميم، فقد تكون النتائج غير عادلة. يمكن أن يؤدي تحيز الذكاء الاصطناعي إلى تخصيص الفرص بشكل غير عادل وإنتاج نتائج غير دقيقة، مما يؤثر سلبًا على رفاهية الناس ويقوض الثقة في الذكاء الاصطناعي.
فهم سبب حدوث التحيز هو الخطوة الأولى نحو الحلول – وهي خطوة تتخذها الآن الأوساط الأكاديمية والصناعية والحكومات على مستوى العالم بجدية.
أمثلة واقعية على تحيز الذكاء الاصطناعي
التحيز في الذكاء الاصطناعي ليس مجرد قلق نظري؛ فقد كشفت العديد من الحالات الواقعية كيف يمكن أن يؤدي التحيز الخوارزمي إلى التمييز. تشمل الحالات البارزة لتحيز الذكاء الاصطناعي في قطاعات مختلفة ما يلي:
-
العدالة الجنائية: في الولايات المتحدة، وُجد أن خوارزمية شائعة تستخدم لتوقع احتمال العودة للجريمة (إعادة الجريمة) متحيزة ضد المتهمين السود. كانت غالبًا تخطئ في تصنيف المتهمين السود على أنهم عالي الخطورة والمتهمين البيض على أنهم منخفضي الخطورة، مما زاد من التفاوتات العرقية في الأحكام.
تُبرز هذه الحالة كيف يمكن للذكاء الاصطناعي أن يضخم التحيزات التاريخية في الشرطة والمحاكم. -
التوظيف والتجنيد: ألغت أمازون أداة توظيف تعتمد على الذكاء الاصطناعي بعد اكتشاف أنها تميز ضد النساء. كان نموذج التعلم الآلي قد تعلم أن المرشحين الذكور مفضلون، لأنه تدرب على سير ذاتية سابقة لمعظمها من الرجال.
نتيجة لذلك، تم تخفيض ترتيب السير الذاتية التي تحتوي على كلمة "نساء" (مثل "قائدة نادي الشطرنج النسائي") أو من كليات نسائية بالكامل بواسطة النظام. كان هذا التحيز في خوارزمية التوظيف سيؤدي إلى استبعاد نساء مؤهلات من الوظائف التقنية بشكل غير عادل. -
الرعاية الصحية: وُجد أن خوارزمية تستخدمها مستشفيات في الولايات المتحدة لتحديد المرضى الذين يحتاجون إلى رعاية إضافية تقلل من تقدير احتياجات المرضى السود الصحية مقارنة بالمرضى البيض. اعتمد النظام على إنفاق الرعاية الصحية لتحديد أولوية إدارة الرعاية: وبما أن الإنفاق على المرضى السود كان تاريخيًا أقل رغم تساوي مستوى المرض، استنتجت الخوارزمية خطأً أن المرضى السود "أكثر صحة" ومنحتهم درجات خطر أقل.
في الواقع، أدى هذا التحيز إلى إغفال العديد من المرضى السود الذين كانوا بحاجة إلى رعاية أكبر – حيث أظهرت الدراسة أن المرضى السود أنفقوا حوالي 1800 دولار أقل سنويًا على الرعاية الطبية مقارنة بالمرضى البيض بنفس مستوى المرض، مما أدى إلى تقليل علاجهم بواسطة الذكاء الاصطناعي. -
التعرف على الوجه: أظهرت تقنية التعرف على الوجه تحيزًا كبيرًا في دقتها عبر الخطوط الديموغرافية. وجدت دراسة شاملة عام 2019 أجرتها المعهد الوطني الأمريكي للمعايير والتقنية (NIST) أن غالبية خوارزميات التعرف على الوجه لديها معدلات خطأ أعلى بكثير للأشخاص من ذوي البشرة الملونة والنساء مقارنة بالرجال البيض.
في سيناريوهات المطابقة واحد لواحد (التحقق مما إذا كانت صورتان لنفس الشخص)، كانت احتمالية التعرف الخاطئ على الوجوه الآسيوية والأفريقية الأمريكية أعلى من 10 إلى 100 مرة مقارنة بالوجوه القوقازية في بعض الخوارزميات. في عمليات البحث واحد لكثير (تحديد شخص من قاعدة بيانات، تستخدمها جهات إنفاذ القانون)، كانت أعلى معدلات الخطأ في التعرف على النساء السود – وهو تحيز خطير أدى بالفعل إلى اعتقال أبرياء خطأ.
تُظهر هذه الفوارق كيف يمكن للذكاء الاصطناعي المتحيز أن يضر بشكل غير متناسب بالمجموعات المهمشة. -
الذكاء الاصطناعي التوليدي والمحتوى عبر الإنترنت: حتى أحدث أنظمة الذكاء الاصطناعي ليست بمنأى عن التحيز. كشفت دراسة لليونسكو عام 2024 أن نماذج اللغة الكبيرة (الذكاء الاصطناعي وراء روبوتات الدردشة ومنشئي المحتوى) غالبًا ما تنتج صورًا نمطية متراجعة عن الجنس والعرق.
على سبيل المثال، وُصفت النساء بأدوار منزلية أربع مرات أكثر من الرجال في نموذج شائع، حيث ارتبطت الأسماء النسائية بكلمات مثل "المنزل" و"الأطفال"، بينما ارتبطت الأسماء الذكورية بكلمات مثل "تنفيذي"، "راتب"، و"مسيرة مهنية". وبالمثل، وجدت الدراسة أن هذه النماذج تظهر تحيزًا ضد المثليين وصورًا نمطية ثقافية في مخرجاتها.
نظرًا لأن الملايين يستخدمون الذكاء الاصطناعي التوليدي في حياتهم اليومية، يمكن حتى للتحيزات الطفيفة في المحتوى أن تعزز عدم المساواة في العالم الحقيقي، مما يعزز الصور النمطية على نطاق واسع.
تؤكد هذه الأمثلة أن التحيز الخوارزمي ليس مشكلة بعيدة أو نادرة – إنه يحدث في مختلف المجالات اليوم. من فرص العمل إلى العدالة، ومن الرعاية الصحية إلى المعلومات عبر الإنترنت، يمكن لأنظمة الذكاء الاصطناعي المتحيزة أن تعيد إنتاج التمييز القائم بل وتزيده.
غالبًا ما تتحمل المجموعات التاريخيًا المهمشة الضرر الأكبر، مما يثير مخاوف أخلاقية وحقوقية جدية. كما تحذر اليونسكو، فإن مخاطر الذكاء الاصطناعي "تتراكم فوق عدم المساواة القائمة، مما يؤدي إلى مزيد من الضرر للمجموعات المهمشة بالفعل".
لماذا يهم تحيز الذكاء الاصطناعي؟
المخاطر المرتبطة بمعالجة تحيز الذكاء الاصطناعي كبيرة. إذا تُركت دون رقابة، يمكن للخوارزميات المتحيزة أن ترسخ التمييز النظامي تحت غطاء الحياد التكنولوجي. تحمل القرارات التي تتخذها (أو توجهها) أنظمة الذكاء الاصطناعي – مثل من يتم توظيفه، من يحصل على قرض أو إطلاق سراح مشروط، وكيف تستهدف الشرطة المراقبة – عواقب حقيقية على حياة الناس.
إذا كانت هذه القرارات منحازة بشكل غير عادل ضد أجناس أو أعراق أو مجتمعات معينة، فإن التفاوتات الاجتماعية تتسع. يمكن أن يؤدي ذلك إلى حرمان من الفرص، تفاوتات اقتصادية، أو حتى تهديدات للحرية الشخصية والسلامة للمجموعات المتأثرة.
على المستوى الأوسع، يقوض التحيز الخوارزمي حقوق الإنسان والعدالة الاجتماعية، متعارضًا مع مبادئ المساواة وعدم التمييز التي تدعمها المجتمعات الديمقراطية.
كما يقوض التحيز في الذكاء الاصطناعي الثقة العامة في التكنولوجيا. يقل احتمال ثقة الناس أو تبنيهم لأنظمة الذكاء الاصطناعي التي تُعتبر غير عادلة أو غير شفافة.
بالنسبة للشركات والحكومات، يمثل هذا العجز في الثقة مشكلة خطيرة – فالابتكار الناجح يتطلب ثقة الجمهور. كما أشار أحد الخبراء، فإن القرارات العادلة وغير المتحيزة للذكاء الاصطناعي ليست فقط صحيحة أخلاقيًا، بل هي مفيدة للأعمال والمجتمع لأن الابتكار المستدام يعتمد على الثقة.
وعلى العكس، يمكن أن تؤدي الإخفاقات المعلنة للذكاء الاصطناعي بسبب التحيز (مثل الحالات السابقة) إلى الإضرار بسمعة المنظمة ومصداقيتها.
علاوة على ذلك، يمكن أن يقلل التحيز الخوارزمي من الفوائد المحتملة للذكاء الاصطناعي. يمتلك الذكاء الاصطناعي القدرة على تحسين الكفاءة واتخاذ القرار، لكن إذا كانت نتائجه تمييزية أو غير دقيقة لفئات معينة من السكان، فلن يحقق تأثيره الإيجابي الكامل.
على سبيل المثال، أداة صحية تعتمد على الذكاء الاصطناعي تعمل جيدًا لفئة سكانية واحدة ولكنها ضعيفة لفئات أخرى ليست فعالة أو مقبولة حقًا. كما لاحظت منظمة التعاون الاقتصادي والتنمية، فإن التحيز في الذكاء الاصطناعي يحد من الفرص بشكل غير عادل وقد يكلف الشركات سمعتها وثقة المستخدمين.
باختصار، معالجة التحيز ليست مجرد واجب أخلاقي بل أمر حاسم للاستفادة من فوائد الذكاء الاصطناعي لجميع الأفراد بطريقة عادلة.
استراتيجيات التخفيف من تحيز الذكاء الاصطناعي
نظرًا لأن التحيز الخوارزمي أصبح معترفًا به على نطاق واسع، ظهرت مجموعة من الاستراتيجيات وأفضل الممارسات للتخفيف منه. يتطلب ضمان أن تكون أنظمة الذكاء الاصطناعي عادلة وشاملة اتخاذ إجراءات في مراحل متعددة من التطوير والنشر:
-
ممارسات بيانات أفضل: بما أن البيانات المتحيزة هي السبب الجذري، فإن تحسين جودة البيانات أمر أساسي. يعني هذا استخدام مجموعات بيانات تدريب متنوعة وممثلة تشمل المجموعات الأقلية، وفحصها بدقة للكشف عن الانحياز أو الفجوات.
كما يشمل تدقيق البيانات للكشف عن التحيزات التاريخية (مثل اختلاف النتائج حسب العرق/الجنس) وتصحيحها أو موازنتها قبل تدريب النموذج. في الحالات التي تكون فيها بعض المجموعات ممثلة تمثيلًا ناقصًا، يمكن أن تساعد تقنيات مثل زيادة البيانات أو البيانات الاصطناعية.
أشارت أبحاث NIST إلى أن المزيد من تنوع بيانات التدريب يمكن أن يؤدي إلى نتائج أكثر عدالة في التعرف على الوجه، على سبيل المثال. يمكن أيضًا للرصد المستمر لمخرجات الذكاء الاصطناعي أن يكتشف مشكلات التحيز مبكرًا – ما يُقاس يُدار. إذا جمعت المؤسسة بيانات دقيقة حول كيفية اختلاف قرارات الخوارزمية حسب الفئة الديموغرافية، يمكنها تحديد الأنماط غير العادلة ومعالجتها. -
تصميم خوارزميات عادلة: يجب على المطورين دمج قيود العدالة وتقنيات التخفيف من التحيز بوعي في تدريب النماذج. قد يشمل ذلك استخدام خوارزميات يمكن ضبطها لتحقيق العدالة (وليس الدقة فقط)، أو تطبيق تقنيات لمعادلة معدلات الخطأ بين المجموعات.
هناك الآن أدوات وأطر عمل (العديد منها مفتوح المصدر) لاختبار النماذج للكشف عن التحيز وضبطها – مثل إعادة وزن البيانات، تعديل عتبات القرار، أو إزالة الميزات الحساسة بطريقة مدروسة.
من المهم أن هناك تعريفات رياضية متعددة للعدالة (مثل تكافؤ التنبؤ، تكافؤ معدلات الإيجابيات الكاذبة، وغيرها)، وأحيانًا تتعارض هذه التعريفات. اختيار النهج الصحيح للعدالة يتطلب حكمًا أخلاقيًا وسياقًا، وليس مجرد تعديل بيانات.
لذلك، يُشجع فرق الذكاء الاصطناعي على العمل مع خبراء المجال والمجتمعات المتأثرة عند تحديد معايير العدالة لتطبيق معين. -
الإشراف البشري والمساءلة: لا ينبغي لأي نظام ذكاء اصطناعي أن يعمل بمعزل عن المساءلة البشرية. الإشراف البشري ضروري لاكتشاف وتصحيح التحيزات التي قد تتعلمها الآلة.
هذا يعني وجود البشر في الحلقة لاتخاذ قرارات مهمة – مثل مراجعة مسؤول التوظيف للمرشحين الذين فحصهم الذكاء الاصطناعي، أو قاضٍ ينظر بحذر في درجة المخاطر التي يقدمها الذكاء الاصطناعي.
كما يعني تعيين مسؤوليات واضحة: يجب أن تتذكر المؤسسات أنها مسؤولة عن القرارات التي تتخذها خوارزمياتها كما لو اتخذها موظفوها. تساعد عمليات التدقيق المنتظمة لقرارات الذكاء الاصطناعي، وتقييمات تأثير التحيز، والقدرة على شرح منطق الذكاء الاصطناعي (قابلية التفسير) في الحفاظ على المساءلة.
الشفافية هي ركيزة أخرى هنا: الانفتاح حول كيفية عمل النظام والقيود المعروفة له يمكن أن يبني الثقة ويسمح بالتدقيق المستقل.
في الواقع، تتجه بعض السلطات القضائية نحو إلزام الشفافية في القرارات الخوارزمية ذات المخاطر العالية (مثل مطالبة الوكالات الحكومية بالكشف عن كيفية استخدام الخوارزميات في القرارات التي تؤثر على المواطنين). الهدف هو ضمان أن يعزز الذكاء الاصطناعي اتخاذ القرار البشري دون استبدال الحكم الأخلاقي أو المسؤولية القانونية. -
فرق متنوعة وتطوير شامل: يؤكد عدد متزايد من الخبراء على قيمة التنوع بين مطوري الذكاء الاصطناعي وأصحاب المصلحة. تعكس منتجات الذكاء الاصطناعي وجهات نظر ونقاط عمياء لمن يصنعونها.
لذا، إذا صمم نظام ذكاء اصطناعي من قبل مجموعة متجانسة من الأشخاص (مثل جنس واحد، أو عرق واحد، أو خلفية ثقافية واحدة)، فقد يغفل كيف يمكن أن يؤثر بشكل غير عادل على الآخرين.
إشراك أصوات متنوعة – بما في ذلك النساء، والأقليات العرقية، والخبراء من العلوم الاجتماعية أو الأخلاقيات – في عملية التصميم والاختبار يؤدي إلى ذكاء اصطناعي أكثر وعيًا ثقافيًا.
تشير اليونسكو إلى أنه وفقًا للبيانات الحديثة، النساء ممثلات تمثيلًا ناقصًا بشكل كبير في أدوار الذكاء الاصطناعي (حوالي 20% فقط من موظفي الذكاء الاصطناعي الفنيين و12% من الباحثين في الذكاء الاصطناعي من النساء). زيادة التمثيل ليست فقط مسألة مساواة في مكان العمل، بل تتعلق بتحسين نتائج الذكاء الاصطناعي: إذا لم تُطور أنظمة الذكاء الاصطناعي من قبل فرق متنوعة، فمن غير المرجح أن تلبي احتياجات المستخدمين المتنوعين أو تحمي حقوق الجميع.
تهدف مبادرات مثل منصة اليونسكو Women4Ethical AI إلى تعزيز التنوع ومشاركة أفضل الممارسات لتصميم ذكاء اصطناعي غير تمييزي. -
التنظيم والإرشادات الأخلاقية: تتدخل الحكومات والهيئات الدولية الآن بنشاط لضمان معالجة تحيز الذكاء الاصطناعي. في عام 2021، اعتمدت دول أعضاء اليونسكو بالإجماع توصية أخلاقيات الذكاء الاصطناعي – وهو أول إطار عالمي لأخلاقيات الذكاء الاصطناعي.
يكرس هذا الإطار مبادئ الشفافية، والعدالة، وعدم التمييز، ويؤكد على أهمية الإشراف البشري على أنظمة الذكاء الاصطناعي. تعمل هذه المبادئ كدليل للدول لوضع سياسات وقوانين حول الذكاء الاصطناعي.
وبالمثل، يضع قانون الذكاء الاصطناعي الجديد للاتحاد الأوروبي (الذي سيدخل حيز التنفيذ الكامل في 2024) منع التحيز كأولوية صريحة. أحد الأهداف الرئيسية لقانون الذكاء الاصطناعي هو التخفيف من التمييز والتحيز في أنظمة الذكاء الاصطناعي عالية المخاطر.
سيتطلب القانون أن تخضع الأنظمة المستخدمة في المجالات الحساسة (مثل التوظيف، والائتمان، وإنفاذ القانون، وغيرها) لتقييمات صارمة للعدالة وألا تضر بشكل غير متناسب بالمجموعات المحمية.
قد تؤدي الانتهاكات إلى غرامات مالية كبيرة، مما يشكل حافزًا قويًا للشركات لبناء ضوابط ضد التحيز.
بالإضافة إلى اللوائح العامة، اتخذت بعض الحكومات المحلية إجراءات مستهدفة – على سبيل المثال، حظرت أكثر من اثنتي عشرة مدينة كبرى (بما في ذلك سان فرانسيسكو وبوسطن ومينيابوليس) استخدام الشرطة لتقنية التعرف على الوجه بسبب تحيزها العرقي ومخاطرها على الحقوق المدنية.
على صعيد الصناعة، تنشر منظمات المعايير والشركات التقنية إرشادات وتطور أدوات (مثل مجموعات أدوات العدالة وأطر التدقيق) لمساعدة الممارسين على دمج الأخلاقيات في تطوير الذكاء الاصطناعي.
يشمل التحرك نحو "الذكاء الاصطناعي الجدير بالثقة" مزيجًا من هذه الجهود، لضمان أن تكون أنظمة الذكاء الاصطناعي قانونية، وأخلاقية، وقوية في التطبيق.
>>> هل تريد أن تعرف:
تأثير الذكاء الاصطناعي على الوظائف
الذكاء الاصطناعي والتحيز الخوارزمي يمثلان تحديًا عالميًا بدأنا فقط في التعامل معه بفعالية. توضح الأمثلة والجهود السابقة أن تحيز الذكاء الاصطناعي ليس قضية هامشية – بل يؤثر على الفرص الاقتصادية، والعدالة، والصحة، والتماسك الاجتماعي في جميع أنحاء العالم.
الخبر السار هو أن الوعي قد ازداد بشكل حاد، وهناك إجماع ناشئ على أن الذكاء الاصطناعي يجب أن يكون متمحورًا حول الإنسان وعادلاً.
يتطلب تحقيق ذلك يقظة مستمرة: اختبار أنظمة الذكاء الاصطناعي باستمرار للكشف عن التحيز، وتحسين البيانات والخوارزميات، وإشراك أصحاب المصلحة المتنوعين، وتحديث اللوائح مع تطور التكنولوجيا.
في جوهره، مكافحة التحيز الخوارزمي تعني مواءمة الذكاء الاصطناعي مع قيمنا في المساواة والعدالة. كما أشارت المديرة العامة لليونسكو أودري أزولاي، حتى "التحيزات الصغيرة في محتوى [الذكاء الاصطناعي] يمكن أن تضخم بشكل كبير عدم المساواة في العالم الحقيقي".
لذلك، فإن السعي نحو ذكاء اصطناعي غير متحيز أمر حاسم لضمان أن التكنولوجيا ترتقي بجميع فئات المجتمع بدلاً من تعزيز الأحكام المسبقة القديمة.
من خلال إعطاء الأولوية للمبادئ الأخلاقية في تصميم الذكاء الاصطناعي – ودعمها بإجراءات وسياسات ملموسة – يمكننا استغلال قوة الابتكار في الذكاء الاصطناعي مع حماية كرامة الإنسان.
الطريق المستقبلي للذكاء الاصطناعي هو حيث تتعلم الآلات الذكية من أفضل قيم الإنسانية، وليس من أسوأ تحيزاتها، مما يمكّن التكنولوجيا من إفادة الجميع حقًا.