آیا درباره تعصبات الگوریتمی در هوش مصنوعی کنجکاو هستید؟ به INVIAI بپیوندید تا در این مقاله بیشتر درباره هوش مصنوعی و تعصبات الگوریتمی بیاموزید!
هوش مصنوعی (AI) به طور فزایندهای در زندگی روزمره ما جای گرفته است – از تصمیمات استخدامی گرفته تا مراقبتهای بهداشتی و پلیس – اما استفاده از آن نگرانیهایی درباره تعصبات الگوریتمی ایجاد کرده است. تعصب الگوریتمی به پیشداوریهای سیستماتیک و ناعادلانه در خروجیهای سیستمهای هوش مصنوعی اشاره دارد که اغلب بازتابدهنده کلیشهها و نابرابریهای اجتماعی است.
در واقع، الگوریتم هوش مصنوعی ممکن است به طور ناخواسته تعصبات انسانی موجود در دادههای آموزشی یا طراحی خود را بازتولید کند که منجر به نتایج تبعیضآمیز میشود.
این مسئله به یکی از چالشهای داغ اخلاق فناوری تبدیل شده و توجه جهانی پژوهشگران، سیاستگذاران و رهبران صنعت را به خود جلب کرده است. پذیرش سریع هوش مصنوعی ضرورت پرداختن به تعصب را بیش از پیش برجسته میکند: بدون چارچوبهای اخلاقی، هوش مصنوعی خطر بازتولید تعصبات و تبعیضهای دنیای واقعی را دارد که میتواند به تفرقههای اجتماعی دامن زده و حتی حقوق بنیادین بشر را تهدید کند.
در ادامه، به بررسی علل تعصب الگوریتمی، نمونههای واقعی تأثیر آن و تلاشهای جهانی برای عادلانهتر کردن هوش مصنوعی میپردازیم.
درک تعصب الگوریتمی و علل آن
تعصب الگوریتمی معمولاً نه به این دلیل که هوش مصنوعی «میخواهد» تبعیض کند، بلکه به دلیل عوامل انسانی رخ میدهد. سیستمهای هوش مصنوعی از دادهها میآموزند و قوانین را که توسط انسانها ایجاد شدهاند دنبال میکنند – و انسانها دارای تعصبات (اغلب ناخودآگاه) هستند.
اگر دادههای آموزشی جانبدارانه یا بازتابدهنده پیشداوریهای تاریخی باشند، هوش مصنوعی احتمالاً آن الگوها را یاد میگیرد.
برای مثال، یک هوش مصنوعی غربالگری رزومه که بر اساس ده سال استخدام در صنعت فناوری آموزش دیده است (جایی که بیشتر استخدامشدگان مرد بودهاند) ممکن است نتیجه بگیرد که کاندیداهای مرد ارجحترند و در نتیجه زنان را در موقعیت نامناسبی قرار دهد. علل رایج دیگر شامل دادههای ناقص یا غیرنماینده، برچسبگذاری دادههای جانبدارانه یا الگوریتمهایی است که برای دقت کلی بهینه شدهاند اما عدالت برای گروههای اقلیت را در نظر نگرفتهاند.
به طور خلاصه، الگوریتمهای هوش مصنوعی تعصبات سازندگان و دادههای خود را به ارث میبرند مگر اینکه اقدامات آگاهانهای برای شناسایی و اصلاح این تعصبات انجام شود.
شایان ذکر است که تعصب الگوریتمی معمولاً غیرعمدی است. سازمانها اغلب هوش مصنوعی را برای تصمیمگیریهای عینیتر به کار میگیرند، اما اگر اطلاعات جانبدارانه به سیستم داده شود یا عدالت در طراحی لحاظ نشود، نتیجه میتواند ناعادلانه باشد. تعصب هوش مصنوعی میتواند فرصتها را به ناحق تخصیص دهد و نتایج نادرستی تولید کند که بر رفاه افراد تأثیر منفی گذاشته و اعتماد به هوش مصنوعی را کاهش میدهد.
درک دلیل وقوع تعصب، نخستین گام به سوی راهحلها است – و این گامی است که دانشگاهها، صنعت و دولتها در سراسر جهان اکنون جدی گرفتهاند.
نمونههای واقعی تعصب هوش مصنوعی
تعصب در هوش مصنوعی تنها یک نگرانی فرضی نیست؛ موارد متعددی در دنیای واقعی نشان دادهاند که تعصب الگوریتمی چگونه میتواند منجر به تبعیض شود. نمونههای برجسته تعصب هوش مصنوعی در بخشهای مختلف عبارتند از:
-
عدالت کیفری: در ایالات متحده، الگوریتمی محبوب برای پیشبینی احتمال ارتکاب مجدد جرم (بازگشت به جرم) علیه متهمان سیاهپوست تعصب داشت. این الگوریتم اغلب متهمان سیاهپوست را پرخطر و متهمان سفیدپوست را کمخطر ارزیابی میکرد که باعث تشدید نابرابریهای نژادی در صدور حکم میشد.
این مورد نشان میدهد که چگونه هوش مصنوعی میتواند تعصبات تاریخی در پلیس و دادگاهها را تشدید کند. -
استخدام و جذب نیرو: آمازون به طور مشهور ابزار جذب نیروی مبتنی بر هوش مصنوعی خود را کنار گذاشت پس از آنکه مشخص شد این ابزار علیه زنان تبعیض قائل میشود. مدل یادگیری ماشینی خودآموزی کرده بود که کاندیداهای مرد ارجحترند، زیرا بر اساس رزومههای گذشته که عمدتاً متعلق به مردان بود آموزش دیده بود.
در نتیجه، رزومههایی که شامل کلمه «زنان» (مثلاً «کاپیتان باشگاه شطرنج زنان») یا دانشگاههای مختص زنان بودند توسط سیستم پایینتر ارزیابی میشدند. این الگوریتم استخدام جانبدارانه به ناحق زنان واجد شرایط برای مشاغل فنی را حذف میکرد. -
مراقبتهای بهداشتی: الگوریتمی که در بیمارستانهای سراسر آمریکا برای شناسایی بیمارانی که نیاز به مراقبت بیشتر دارند استفاده میشد، نیازهای بهداشتی بیماران سیاهپوست را کمتر از بیماران سفیدپوست ارزیابی میکرد. این سیستم اولویت مدیریت مراقبت را بر اساس هزینههای درمانی پیشبینی میکرد: از آنجا که به طور تاریخی هزینه کمتری برای بیماران سیاهپوست با همان سطح بیماری صرف شده بود، الگوریتم اشتباهاً نتیجه گرفت که بیماران سیاهپوست «سالمتر» هستند و نمرات ریسک پایینتری به آنها اختصاص داد.
در عمل، این تعصب به معنای نادیده گرفتن بسیاری از بیماران سیاهپوستی بود که نیاز به مراقبت بیشتری داشتند – مطالعه نشان داد بیماران سیاهپوست سالانه حدود ۱۸۰۰ دلار کمتر از بیماران سفیدپوست با همان شدت بیماری هزینه پزشکی داشتهاند که منجر به درمان ناکافی آنها شد. -
تشخیص چهره: فناوری تشخیص چهره در دقت خود تعصب قابل توجهی نشان داده است که بر اساس خطوط جمعیتی متفاوت است. مطالعه جامعی در سال ۲۰۱۹ توسط مؤسسه ملی استانداردها و فناوری آمریکا (NIST) نشان داد که اکثر الگوریتمهای تشخیص چهره نرخ خطای بسیار بالاتری برای افراد رنگینپوست و زنان نسبت به مردان سفیدپوست دارند.
در سناریوهای تطبیق یکبهیک (تأیید اینکه دو عکس متعلق به یک فرد هستند)، شناساییهای مثبت کاذب برای چهرههای آسیایی و آفریقایی-آمریکایی در برخی الگوریتمها ۱۰ تا ۱۰۰ برابر بیشتر از چهرههای سفیدپوست بود. در جستجوهای یکبهچند (شناسایی فرد از پایگاه داده، که توسط نیروهای انتظامی استفاده میشود)، بالاترین نرخهای اشتباه برای زنان سیاهپوست بود – تعصبی خطرناک که منجر به دستگیریهای نادرست افراد بیگناه شده است.
این تفاوتها نشان میدهد که هوش مصنوعی جانبدار چگونه میتواند به طور نامتناسبی به گروههای حاشیهنشین آسیب برساند. -
هوش مصنوعی مولد و محتوای آنلاین: حتی جدیدترین سیستمهای هوش مصنوعی نیز از این قاعده مستثنی نیستند. مطالعهای در سال ۲۰۲۴ توسط یونسکو نشان داد که مدلهای زبان بزرگ (هوش مصنوعی پشت چتباتها و تولیدکنندگان محتوا) اغلب کلیشههای جنسیتی و نژادی واپسگرا تولید میکنند.
برای مثال، زنان چهار برابر بیشتر از مردان در نقشهای خانگی توصیف شدهاند توسط یکی از مدلهای محبوب، با نامهای زنانه که اغلب با کلماتی مانند «خانه» و «کودکان» مرتبط بودند، در حالی که نامهای مردانه با «مدیر»، «حقوق» و «حرفه» همراه بودند. همچنین، این مطالعه نشان داد که این مدلهای هوش مصنوعی تعصبات همجنسگراستیزانه و کلیشههای فرهنگی را در خروجیهای خود دارند.
با توجه به اینکه میلیونها نفر اکنون از هوش مصنوعی مولد در زندگی روزمره استفاده میکنند، حتی تعصبات ظریف در محتوا میتواند نابرابریها را در دنیای واقعی تشدید کند و کلیشهها را در مقیاس وسیع تقویت نماید.
این نمونهها تأکید میکنند که تعصب الگوریتمی مشکلی دور یا نادر نیست – بلکه امروز در حوزههای مختلف رخ میدهد. از فرصتهای شغلی تا عدالت، مراقبتهای بهداشتی تا اطلاعات آنلاین، سیستمهای هوش مصنوعی جانبدار میتوانند تبعیض موجود را بازتولید و حتی تشدید کنند.
ضرر این تعصبات اغلب متوجه گروههای تاریخی محروم است و نگرانیهای جدی اخلاقی و حقوق بشری را به همراه دارد. همانطور که یونسکو هشدار میدهد، خطرات هوش مصنوعی «بر نابرابریهای موجود افزوده و به گروههای حاشیهنشین آسیب بیشتری میرساند».
چرا تعصب هوش مصنوعی اهمیت دارد؟
اهمیت پرداختن به تعصب هوش مصنوعی بسیار بالاست. اگر بدون کنترل رها شود، الگوریتمهای جانبدار میتوانند تبعیض سیستماتیک را پشت نقاب بیطرفی فناوری تثبیت کنند. تصمیماتی که توسط هوش مصنوعی گرفته یا هدایت میشوند – مانند اینکه چه کسی استخدام شود، چه کسی وام یا آزادی مشروط بگیرد، یا چگونه پلیس نظارت کند – پیامدهای واقعی برای زندگی افراد دارند.
اگر این تصمیمات به ناحق علیه جنسیتها، نژادها یا جوامع خاصی سوگیری داشته باشند، نابرابریهای اجتماعی گسترش مییابد. این میتواند منجر به محرومیت از فرصتها، اختلافات اقتصادی یا حتی تهدید آزادی و امنیت شخصی گروههای متاثر شود.
در چشمانداز کلی، تعصب الگوریتمی حقوق بشر و عدالت اجتماعی را تضعیف میکند و با اصول برابری و عدم تبعیض که جوامع دموکراتیک به آن پایبندند، در تضاد است.
تعصب در هوش مصنوعی همچنین اعتماد عمومی به فناوری را کاهش میدهد. مردم کمتر تمایل دارند به سیستمهای هوش مصنوعی که ناعادلانه یا غیرشفاف به نظر میرسند اعتماد کنند یا از آنها استفاده نمایند.
برای کسبوکارها و دولتها، این کمبود اعتماد مسئلهای جدی است – نوآوری موفق نیازمند اعتماد عمومی است. همانطور که یک کارشناس اشاره کرده، تصمیمات عادلانه و بدون تعصب هوش مصنوعی تنها از نظر اخلاقی درست نیستند، بلکه برای کسبوکار و جامعه نیز مفیدند زیرا نوآوری پایدار بر پایه اعتماد استوار است.
از سوی دیگر، شکستهای پر سر و صدای هوش مصنوعی به دلیل تعصب (مانند موارد فوق) میتواند به اعتبار و مشروعیت سازمان آسیب برساند.
علاوه بر این، تعصب الگوریتمی میتواند مزایای بالقوه هوش مصنوعی را کاهش دهد. هوش مصنوعی وعده بهبود کارایی و تصمیمگیری را دارد، اما اگر نتایج آن برای بخشهایی از جمعیت تبعیضآمیز یا نادرست باشد، نمیتواند به تأثیر مثبت کامل خود برسد.
برای مثال، ابزاری در حوزه سلامت که برای یک گروه جمعیتی خوب عمل میکند اما برای دیگران ضعیف است، واقعاً مؤثر یا قابل قبول نیست. همانطور که سازمان همکاری و توسعه اقتصادی (OECD) مشاهده کرده، تعصب در هوش مصنوعی فرصتها را به ناحق محدود میکند و میتواند اعتبار کسبوکارها و اعتماد کاربران را از بین ببرد.
به طور خلاصه، پرداختن به تعصب نه تنها یک ضرورت اخلاقی بلکه برای بهرهبرداری عادلانه از مزایای هوش مصنوعی برای همه افراد حیاتی است.
راهبردهای کاهش تعصب هوش مصنوعی
از آنجا که تعصب الگوریتمی اکنون به طور گستردهای شناخته شده است، مجموعهای از راهبردها و بهترین شیوهها برای کاهش آن شکل گرفته است. اطمینان از اینکه سیستمهای هوش مصنوعی عادلانه و فراگیر هستند، نیازمند اقدام در مراحل مختلف توسعه و پیادهسازی است:
-
بهبود روشهای دادهای: از آنجا که دادههای جانبدارانه علت اصلی است، ارتقای کیفیت دادهها کلیدی است. این به معنای استفاده از دادههای آموزشی متنوع و نماینده است که شامل گروههای اقلیت باشد و به دقت برای انحراف یا کمبودها بررسی شود.
همچنین شامل ممیزی دادهها برای تعصبات تاریخی (مثلاً نتایج متفاوت بر اساس نژاد/جنسیت) و اصلاح یا متعادلسازی آنها پیش از آموزش مدل است. در مواردی که گروههای خاص کمنماینده هستند، تکنیکهایی مانند افزایش داده یا دادههای مصنوعی میتواند کمک کند.
تحقیقات NIST نشان داده که دادههای آموزشی متنوعتر میتواند نتایج عادلانهتری در تشخیص چهره به همراه داشته باشد. نظارت مداوم بر خروجیهای هوش مصنوعی نیز میتواند مشکلات تعصب را زود تشخیص دهد – آنچه اندازهگیری شود، مدیریت میشود. اگر سازمان دادههای دقیقی درباره نحوه تفاوت تصمیمات الگوریتم بر اساس جمعیتشناسی جمعآوری کند، میتواند الگوهای ناعادلانه را شناسایی و اصلاح نماید. -
طراحی الگوریتم عادلانه: توسعهدهندگان باید به طور آگاهانه محدودیتهای عدالت و تکنیکهای کاهش تعصب را در آموزش مدلها بگنجانند. این ممکن است شامل استفاده از الگوریتمهایی باشد که قابل تنظیم برای عدالت هستند (نه فقط دقت)، یا بهکارگیری روشهایی برای برابر کردن نرخ خطا بین گروهها.
امروزه ابزارها و چارچوبهای متعددی (بسیاری متنباز) برای آزمایش مدلها از نظر تعصب و تنظیم آنها وجود دارد – مثلاً وزندهی مجدد دادهها، تغییر آستانههای تصمیمگیری، یا حذف ویژگیهای حساس به شیوهای دقیق.
مهم است بدانیم تعاریف ریاضی متعددی برای عدالت وجود دارد (مثلاً برابری پیشبینی، برابری نرخ مثبت کاذب و غیره) که گاهی با هم در تضادند. انتخاب رویکرد مناسب عدالت نیازمند قضاوت اخلاقی و توجه به زمینه است، نه صرفاً تنظیم دادهها.
بنابراین، تیمهای هوش مصنوعی تشویق میشوند با کارشناسان حوزه و جوامع متاثر همکاری کنند تا معیارهای عدالت را برای کاربرد خاص تعریف نمایند. -
نظارت انسانی و پاسخگویی: هیچ سیستم هوش مصنوعی نباید بدون پاسخگویی انسانی عمل کند. نظارت انسانی برای شناسایی و اصلاح تعصباتی که ماشین ممکن است یاد بگیرد حیاتی است.
این به معنای حضور انسانها در فرآیند تصمیمگیریهای مهم است – مثلاً یک استخدامکننده که کاندیداهای غربالشده توسط هوش مصنوعی را بازبینی میکند، یا قاضی که با احتیاط نمره ریسک هوش مصنوعی را بررسی میکند.
همچنین به معنای تعیین مسئولیت روشن است: سازمانها باید به یاد داشته باشند که مسئول تصمیمات الگوریتمهای خود هستند همانطور که مسئول تصمیمات کارکنان هستند. ممیزیهای منظم تصمیمات هوش مصنوعی، ارزیابی تأثیر تعصب و قابلیت توضیح دلایل تصمیمات (قابلیت تبیین) به حفظ پاسخگویی کمک میکند.
شفافیت نیز ستون دیگری است: باز بودن درباره نحوه عملکرد سیستم هوش مصنوعی و محدودیتهای شناختهشده آن میتواند اعتماد ایجاد کرده و امکان بررسی مستقل را فراهم کند.
در واقع، برخی حوزههای قضایی به سمت الزام شفافیت در تصمیمات الگوریتمی حساس حرکت میکنند (برای مثال، الزام نهادهای دولتی به افشای نحوه استفاده از الگوریتمها در تصمیماتی که بر شهروندان تأثیر میگذارد). هدف این است که هوش مصنوعی تصمیمگیری انسانی را تقویت کند بدون جایگزینی قضاوت اخلاقی یا مسئولیت قانونی. -
تیمهای متنوع و توسعه فراگیر: جمعی از کارشناسان بر ارزش تنوع در میان توسعهدهندگان و ذینفعان هوش مصنوعی تأکید دارند. محصولات هوش مصنوعی بازتابدهنده دیدگاهها و نقاط کور کسانی است که آنها را میسازند.
بنابراین، اگر تنها گروهی همگن (مثلاً یک جنسیت، یک قومیت یا یک زمینه فرهنگی) سیستم هوش مصنوعی را طراحی کنند، ممکن است تأثیر ناعادلانه آن بر دیگران را نادیده بگیرند.
گنجاندن صداهای متنوع – از جمله زنان، اقلیتهای نژادی و کارشناسان علوم اجتماعی یا اخلاق – در فرآیند طراحی و آزمایش منجر به هوش مصنوعی آگاهتر فرهنگی میشود.
یونسکو اشاره میکند که بر اساس دادههای اخیر، زنان به شدت در نقشهای هوش مصنوعی کمنماینده هستند (تنها حدود ۲۰٪ کارکنان فنی هوش مصنوعی و ۱۲٪ پژوهشگران هوش مصنوعی زن هستند). افزایش نمایندگی تنها مسئله برابری در محیط کار نیست، بلکه بهبود نتایج هوش مصنوعی است: اگر سیستمهای هوش مصنوعی توسط تیمهای متنوع توسعه نیابند، کمتر احتمال دارد نیازهای کاربران متنوع را برآورده کنند یا حقوق همه را حفظ نمایند.
ابتکارهایی مانند پلتفرم Women4Ethical AI یونسکو به منظور افزایش تنوع و به اشتراکگذاری بهترین شیوهها برای طراحی هوش مصنوعی بدون تبعیض ایجاد شدهاند. -
مقررات و دستورالعملهای اخلاقی: دولتها و نهادهای بینالمللی اکنون فعالانه وارد عمل شدهاند تا اطمینان حاصل کنند که تعصب هوش مصنوعی مورد توجه قرار میگیرد. در سال ۲۰۲۱، کشورهای عضو یونسکو به طور یکپارچه توصیهنامه اخلاق هوش مصنوعی را تصویب کردند – نخستین چارچوب جهانی برای اخلاق هوش مصنوعی.
این چارچوب اصول شفافیت، عدالت و عدم تبعیض را تثبیت کرده و بر اهمیت نظارت انسانی بر سیستمهای هوش مصنوعی تأکید میکند. این اصول راهنمایی برای کشورها در تدوین سیاستها و قوانین مرتبط با هوش مصنوعی است.
به همین ترتیب، قانون جدید هوش مصنوعی اتحادیه اروپا (که قرار است در سال ۲۰۲۴ به طور کامل اجرا شود) به طور صریح پیشگیری از تعصب را در اولویت قرار داده است. یکی از اهداف اصلی این قانون کاهش تبعیض و تعصب در سیستمهای هوش مصنوعی پرخطر است.
این قانون الزام میکند که سیستمهای به کار رفته در حوزههای حساس (مانند استخدام، اعتبار، اجرای قانون و غیره) ارزیابیهای سختگیرانهای از نظر عدالت داشته باشند و به طور نامتناسب به گروههای محافظتشده آسیب نرسانند.
نقض این قوانین میتواند منجر به جریمههای سنگین شود که انگیزه قوی برای شرکتها جهت ایجاد کنترلهای تعصب فراهم میکند.
علاوه بر مقررات کلی، برخی دولتهای محلی اقدامات هدفمندی انجام دادهاند – برای مثال، بیش از دوازده شهر بزرگ (از جمله سانفرانسیسکو، بوستون و مینیاپولیس) استفاده پلیس از فناوری تشخیص چهره را به دلیل تعصب نژادی و خطرات حقوق مدنی ممنوع کردهاند.
در بخش صنعت، سازمانهای استاندارد و شرکتهای فناوری دستورالعملها و ابزارهایی (مانند کیتهای عدالت و چارچوبهای ممیزی) منتشر میکنند تا به فعالان کمک کنند اخلاق را در توسعه هوش مصنوعی بگنجانند.
جنبش به سوی «هوش مصنوعی قابل اعتماد» ترکیبی از این تلاشها است که تضمین میکند سیستمهای هوش مصنوعی در عمل قانونی، اخلاقی و مقاوم باشند.
>>> آیا میخواهید بدانید:
هوش مصنوعی و تعصب الگوریتمی چالشی جهانی است که ما تازه شروع به مقابله مؤثر با آن کردهایم. نمونهها و تلاشهای فوق روشن میسازد که تعصب هوش مصنوعی مسئلهای محدود نیست – بلکه فرصتهای اقتصادی، عدالت، سلامت و همبستگی اجتماعی را در سراسر جهان تحت تأثیر قرار میدهد.
خبر خوب این است که آگاهی به شدت افزایش یافته و اجماعی در حال شکلگیری است که هوش مصنوعی باید انسانمحور و عادلانه باشد.
رسیدن به این هدف نیازمند هوشیاری مستمر است: آزمایش مداوم سیستمهای هوش مصنوعی برای تعصب، بهبود دادهها و الگوریتمها، مشارکت ذینفعان متنوع و بهروزرسانی مقررات با پیشرفت فناوری.
در اصل، مبارزه با تعصب الگوریتمی درباره همسویی هوش مصنوعی با ارزشهای ما در برابری و عدالت است. همانطور که مدیرکل یونسکو، آدری آزولای، اشاره کرده است، حتی «تعصبات کوچک در محتوای [هوش مصنوعی] میتواند نابرابریها را در دنیای واقعی به طور قابل توجهی تشدید کند».
بنابراین، پیگیری هوش مصنوعی بدون تعصب برای اطمینان از اینکه فناوری تمام اقشار جامعه را ارتقا میدهد نه اینکه تعصبات قدیمی را تقویت کند حیاتی است.
با اولویت دادن به اصول اخلاقی در طراحی هوش مصنوعی – و پشتیبانی آنها با اقدامات و سیاستهای ملموس – میتوانیم قدرت نوآورانه هوش مصنوعی را به کار گیریم و در عین حال کرامت انسانی را حفظ کنیم.
راه پیش رو برای هوش مصنوعی مسیری است که ماشینهای هوشمند از بهترین ارزشهای بشری بیاموزند، نه از بدترین تعصبات ما، تا فناوری واقعاً به نفع همه باشد.