آیا درباره تعصبات الگوریتمی در هوش مصنوعی کنجکاو هستید؟ به INVIAI بپیوندید تا در این مقاله بیشتر درباره هوش مصنوعی و تعصبات الگوریتمی بیاموزید!

هوش مصنوعی (AI) به طور فزاینده‌ای در زندگی روزمره ما جای گرفته است – از تصمیمات استخدامی گرفته تا مراقبت‌های بهداشتی و پلیس – اما استفاده از آن نگرانی‌هایی درباره تعصبات الگوریتمی ایجاد کرده است. تعصب الگوریتمی به پیش‌داوری‌های سیستماتیک و ناعادلانه در خروجی‌های سیستم‌های هوش مصنوعی اشاره دارد که اغلب بازتاب‌دهنده کلیشه‌ها و نابرابری‌های اجتماعی است.

در واقع، الگوریتم هوش مصنوعی ممکن است به طور ناخواسته تعصبات انسانی موجود در داده‌های آموزشی یا طراحی خود را بازتولید کند که منجر به نتایج تبعیض‌آمیز می‌شود.

این مسئله به یکی از چالش‌های داغ اخلاق فناوری تبدیل شده و توجه جهانی پژوهشگران، سیاست‌گذاران و رهبران صنعت را به خود جلب کرده است. پذیرش سریع هوش مصنوعی ضرورت پرداختن به تعصب را بیش از پیش برجسته می‌کند: بدون چارچوب‌های اخلاقی، هوش مصنوعی خطر بازتولید تعصبات و تبعیض‌های دنیای واقعی را دارد که می‌تواند به تفرقه‌های اجتماعی دامن زده و حتی حقوق بنیادین بشر را تهدید کند.

در ادامه، به بررسی علل تعصب الگوریتمی، نمونه‌های واقعی تأثیر آن و تلاش‌های جهانی برای عادلانه‌تر کردن هوش مصنوعی می‌پردازیم.

درک تعصب الگوریتمی و علل آن

تعصب الگوریتمی معمولاً نه به این دلیل که هوش مصنوعی «می‌خواهد» تبعیض کند، بلکه به دلیل عوامل انسانی رخ می‌دهد. سیستم‌های هوش مصنوعی از داده‌ها می‌آموزند و قوانین را که توسط انسان‌ها ایجاد شده‌اند دنبال می‌کنند – و انسان‌ها دارای تعصبات (اغلب ناخودآگاه) هستند.
اگر داده‌های آموزشی جانبدارانه یا بازتاب‌دهنده پیش‌داوری‌های تاریخی باشند، هوش مصنوعی احتمالاً آن الگوها را یاد می‌گیرد.

برای مثال، یک هوش مصنوعی غربالگری رزومه که بر اساس ده سال استخدام در صنعت فناوری آموزش دیده است (جایی که بیشتر استخدام‌شدگان مرد بوده‌اند) ممکن است نتیجه بگیرد که کاندیداهای مرد ارجح‌ترند و در نتیجه زنان را در موقعیت نامناسبی قرار دهد. علل رایج دیگر شامل داده‌های ناقص یا غیرنماینده، برچسب‌گذاری داده‌های جانبدارانه یا الگوریتم‌هایی است که برای دقت کلی بهینه شده‌اند اما عدالت برای گروه‌های اقلیت را در نظر نگرفته‌اند.

به طور خلاصه، الگوریتم‌های هوش مصنوعی تعصبات سازندگان و داده‌های خود را به ارث می‌برند مگر اینکه اقدامات آگاهانه‌ای برای شناسایی و اصلاح این تعصبات انجام شود.

شایان ذکر است که تعصب الگوریتمی معمولاً غیرعمدی است. سازمان‌ها اغلب هوش مصنوعی را برای تصمیم‌گیری‌های عینی‌تر به کار می‌گیرند، اما اگر اطلاعات جانبدارانه به سیستم داده شود یا عدالت در طراحی لحاظ نشود، نتیجه می‌تواند ناعادلانه باشد. تعصب هوش مصنوعی می‌تواند فرصت‌ها را به ناحق تخصیص دهد و نتایج نادرستی تولید کند که بر رفاه افراد تأثیر منفی گذاشته و اعتماد به هوش مصنوعی را کاهش می‌دهد.

درک دلیل وقوع تعصب، نخستین گام به سوی راه‌حل‌ها است – و این گامی است که دانشگاه‌ها، صنعت و دولت‌ها در سراسر جهان اکنون جدی گرفته‌اند.

درک تعصب الگوریتمی و علل آن

نمونه‌های واقعی تعصب هوش مصنوعی

تعصب در هوش مصنوعی تنها یک نگرانی فرضی نیست؛ موارد متعددی در دنیای واقعی نشان داده‌اند که تعصب الگوریتمی چگونه می‌تواند منجر به تبعیض شود. نمونه‌های برجسته تعصب هوش مصنوعی در بخش‌های مختلف عبارتند از:

  • عدالت کیفری: در ایالات متحده، الگوریتمی محبوب برای پیش‌بینی احتمال ارتکاب مجدد جرم (بازگشت به جرم) علیه متهمان سیاه‌پوست تعصب داشت. این الگوریتم اغلب متهمان سیاه‌پوست را پرخطر و متهمان سفیدپوست را کم‌خطر ارزیابی می‌کرد که باعث تشدید نابرابری‌های نژادی در صدور حکم می‌شد.
    این مورد نشان می‌دهد که چگونه هوش مصنوعی می‌تواند تعصبات تاریخی در پلیس و دادگاه‌ها را تشدید کند.

  • استخدام و جذب نیرو: آمازون به طور مشهور ابزار جذب نیروی مبتنی بر هوش مصنوعی خود را کنار گذاشت پس از آنکه مشخص شد این ابزار علیه زنان تبعیض قائل می‌شود. مدل یادگیری ماشینی خودآموزی کرده بود که کاندیداهای مرد ارجح‌ترند، زیرا بر اساس رزومه‌های گذشته که عمدتاً متعلق به مردان بود آموزش دیده بود.

    در نتیجه، رزومه‌هایی که شامل کلمه «زنان» (مثلاً «کاپیتان باشگاه شطرنج زنان») یا دانشگاه‌های مختص زنان بودند توسط سیستم پایین‌تر ارزیابی می‌شدند. این الگوریتم استخدام جانبدارانه به ناحق زنان واجد شرایط برای مشاغل فنی را حذف می‌کرد.

  • مراقبت‌های بهداشتی: الگوریتمی که در بیمارستان‌های سراسر آمریکا برای شناسایی بیمارانی که نیاز به مراقبت بیشتر دارند استفاده می‌شد، نیازهای بهداشتی بیماران سیاه‌پوست را کمتر از بیماران سفیدپوست ارزیابی می‌کرد. این سیستم اولویت مدیریت مراقبت را بر اساس هزینه‌های درمانی پیش‌بینی می‌کرد: از آنجا که به طور تاریخی هزینه کمتری برای بیماران سیاه‌پوست با همان سطح بیماری صرف شده بود، الگوریتم اشتباهاً نتیجه گرفت که بیماران سیاه‌پوست «سالم‌تر» هستند و نمرات ریسک پایین‌تری به آن‌ها اختصاص داد.

    در عمل، این تعصب به معنای نادیده گرفتن بسیاری از بیماران سیاه‌پوستی بود که نیاز به مراقبت بیشتری داشتند – مطالعه نشان داد بیماران سیاه‌پوست سالانه حدود ۱۸۰۰ دلار کمتر از بیماران سفیدپوست با همان شدت بیماری هزینه پزشکی داشته‌اند که منجر به درمان ناکافی آن‌ها شد.

  • تشخیص چهره: فناوری تشخیص چهره در دقت خود تعصب قابل توجهی نشان داده است که بر اساس خطوط جمعیتی متفاوت است. مطالعه جامعی در سال ۲۰۱۹ توسط مؤسسه ملی استانداردها و فناوری آمریکا (NIST) نشان داد که اکثر الگوریتم‌های تشخیص چهره نرخ خطای بسیار بالاتری برای افراد رنگین‌پوست و زنان نسبت به مردان سفیدپوست دارند.

    در سناریوهای تطبیق یک‌به‌یک (تأیید اینکه دو عکس متعلق به یک فرد هستند)، شناسایی‌های مثبت کاذب برای چهره‌های آسیایی و آفریقایی-آمریکایی در برخی الگوریتم‌ها ۱۰ تا ۱۰۰ برابر بیشتر از چهره‌های سفیدپوست بود. در جستجوهای یک‌به‌چند (شناسایی فرد از پایگاه داده، که توسط نیروهای انتظامی استفاده می‌شود)، بالاترین نرخ‌های اشتباه برای زنان سیاه‌پوست بود – تعصبی خطرناک که منجر به دستگیری‌های نادرست افراد بی‌گناه شده است.

    این تفاوت‌ها نشان می‌دهد که هوش مصنوعی جانبدار چگونه می‌تواند به طور نامتناسبی به گروه‌های حاشیه‌نشین آسیب برساند.

  • هوش مصنوعی مولد و محتوای آنلاین: حتی جدیدترین سیستم‌های هوش مصنوعی نیز از این قاعده مستثنی نیستند. مطالعه‌ای در سال ۲۰۲۴ توسط یونسکو نشان داد که مدل‌های زبان بزرگ (هوش مصنوعی پشت چت‌بات‌ها و تولیدکنندگان محتوا) اغلب کلیشه‌های جنسیتی و نژادی واپس‌گرا تولید می‌کنند.

    برای مثال، زنان چهار برابر بیشتر از مردان در نقش‌های خانگی توصیف شده‌اند توسط یکی از مدل‌های محبوب، با نام‌های زنانه که اغلب با کلماتی مانند «خانه» و «کودکان» مرتبط بودند، در حالی که نام‌های مردانه با «مدیر»، «حقوق» و «حرفه» همراه بودند. همچنین، این مطالعه نشان داد که این مدل‌های هوش مصنوعی تعصبات همجنس‌گراستیزانه و کلیشه‌های فرهنگی را در خروجی‌های خود دارند.

    با توجه به اینکه میلیون‌ها نفر اکنون از هوش مصنوعی مولد در زندگی روزمره استفاده می‌کنند، حتی تعصبات ظریف در محتوا می‌تواند نابرابری‌ها را در دنیای واقعی تشدید کند و کلیشه‌ها را در مقیاس وسیع تقویت نماید.

این نمونه‌ها تأکید می‌کنند که تعصب الگوریتمی مشکلی دور یا نادر نیست – بلکه امروز در حوزه‌های مختلف رخ می‌دهد. از فرصت‌های شغلی تا عدالت، مراقبت‌های بهداشتی تا اطلاعات آنلاین، سیستم‌های هوش مصنوعی جانبدار می‌توانند تبعیض موجود را بازتولید و حتی تشدید کنند.

ضرر این تعصبات اغلب متوجه گروه‌های تاریخی محروم است و نگرانی‌های جدی اخلاقی و حقوق بشری را به همراه دارد. همان‌طور که یونسکو هشدار می‌دهد، خطرات هوش مصنوعی «بر نابرابری‌های موجود افزوده و به گروه‌های حاشیه‌نشین آسیب بیشتری می‌رساند».

نمونه‌های واقعی تعصب هوش مصنوعی

چرا تعصب هوش مصنوعی اهمیت دارد؟

اهمیت پرداختن به تعصب هوش مصنوعی بسیار بالاست. اگر بدون کنترل رها شود، الگوریتم‌های جانبدار می‌توانند تبعیض سیستماتیک را پشت نقاب بی‌طرفی فناوری تثبیت کنند. تصمیماتی که توسط هوش مصنوعی گرفته یا هدایت می‌شوند – مانند اینکه چه کسی استخدام شود، چه کسی وام یا آزادی مشروط بگیرد، یا چگونه پلیس نظارت کند – پیامدهای واقعی برای زندگی افراد دارند.

اگر این تصمیمات به ناحق علیه جنسیت‌ها، نژادها یا جوامع خاصی سوگیری داشته باشند، نابرابری‌های اجتماعی گسترش می‌یابد. این می‌تواند منجر به محرومیت از فرصت‌ها، اختلافات اقتصادی یا حتی تهدید آزادی و امنیت شخصی گروه‌های متاثر شود.

در چشم‌انداز کلی، تعصب الگوریتمی حقوق بشر و عدالت اجتماعی را تضعیف می‌کند و با اصول برابری و عدم تبعیض که جوامع دموکراتیک به آن پایبندند، در تضاد است.

تعصب در هوش مصنوعی همچنین اعتماد عمومی به فناوری را کاهش می‌دهد. مردم کمتر تمایل دارند به سیستم‌های هوش مصنوعی که ناعادلانه یا غیرشفاف به نظر می‌رسند اعتماد کنند یا از آن‌ها استفاده نمایند.

برای کسب‌وکارها و دولت‌ها، این کمبود اعتماد مسئله‌ای جدی است – نوآوری موفق نیازمند اعتماد عمومی است. همان‌طور که یک کارشناس اشاره کرده، تصمیمات عادلانه و بدون تعصب هوش مصنوعی تنها از نظر اخلاقی درست نیستند، بلکه برای کسب‌وکار و جامعه نیز مفیدند زیرا نوآوری پایدار بر پایه اعتماد استوار است.

از سوی دیگر، شکست‌های پر سر و صدای هوش مصنوعی به دلیل تعصب (مانند موارد فوق) می‌تواند به اعتبار و مشروعیت سازمان آسیب برساند.

علاوه بر این، تعصب الگوریتمی می‌تواند مزایای بالقوه هوش مصنوعی را کاهش دهد. هوش مصنوعی وعده بهبود کارایی و تصمیم‌گیری را دارد، اما اگر نتایج آن برای بخش‌هایی از جمعیت تبعیض‌آمیز یا نادرست باشد، نمی‌تواند به تأثیر مثبت کامل خود برسد.

برای مثال، ابزاری در حوزه سلامت که برای یک گروه جمعیتی خوب عمل می‌کند اما برای دیگران ضعیف است، واقعاً مؤثر یا قابل قبول نیست. همان‌طور که سازمان همکاری و توسعه اقتصادی (OECD) مشاهده کرده، تعصب در هوش مصنوعی فرصت‌ها را به ناحق محدود می‌کند و می‌تواند اعتبار کسب‌وکارها و اعتماد کاربران را از بین ببرد.

به طور خلاصه، پرداختن به تعصب نه تنها یک ضرورت اخلاقی بلکه برای بهره‌برداری عادلانه از مزایای هوش مصنوعی برای همه افراد حیاتی است.

چرا تعصب هوش مصنوعی اهمیت دارد

راهبردهای کاهش تعصب هوش مصنوعی

از آنجا که تعصب الگوریتمی اکنون به طور گسترده‌ای شناخته شده است، مجموعه‌ای از راهبردها و بهترین شیوه‌ها برای کاهش آن شکل گرفته است. اطمینان از اینکه سیستم‌های هوش مصنوعی عادلانه و فراگیر هستند، نیازمند اقدام در مراحل مختلف توسعه و پیاده‌سازی است:

  • بهبود روش‌های داده‌ای: از آنجا که داده‌های جانبدارانه علت اصلی است، ارتقای کیفیت داده‌ها کلیدی است. این به معنای استفاده از داده‌های آموزشی متنوع و نماینده است که شامل گروه‌های اقلیت باشد و به دقت برای انحراف یا کمبودها بررسی شود.

    همچنین شامل ممیزی داده‌ها برای تعصبات تاریخی (مثلاً نتایج متفاوت بر اساس نژاد/جنسیت) و اصلاح یا متعادل‌سازی آن‌ها پیش از آموزش مدل است. در مواردی که گروه‌های خاص کم‌نماینده هستند، تکنیک‌هایی مانند افزایش داده یا داده‌های مصنوعی می‌تواند کمک کند.

    تحقیقات NIST نشان داده که داده‌های آموزشی متنوع‌تر می‌تواند نتایج عادلانه‌تری در تشخیص چهره به همراه داشته باشد. نظارت مداوم بر خروجی‌های هوش مصنوعی نیز می‌تواند مشکلات تعصب را زود تشخیص دهد – آنچه اندازه‌گیری شود، مدیریت می‌شود. اگر سازمان داده‌های دقیقی درباره نحوه تفاوت تصمیمات الگوریتم بر اساس جمعیت‌شناسی جمع‌آوری کند، می‌تواند الگوهای ناعادلانه را شناسایی و اصلاح نماید.

  • طراحی الگوریتم عادلانه: توسعه‌دهندگان باید به طور آگاهانه محدودیت‌های عدالت و تکنیک‌های کاهش تعصب را در آموزش مدل‌ها بگنجانند. این ممکن است شامل استفاده از الگوریتم‌هایی باشد که قابل تنظیم برای عدالت هستند (نه فقط دقت)، یا به‌کارگیری روش‌هایی برای برابر کردن نرخ خطا بین گروه‌ها.

    امروزه ابزارها و چارچوب‌های متعددی (بسیاری متن‌باز) برای آزمایش مدل‌ها از نظر تعصب و تنظیم آن‌ها وجود دارد – مثلاً وزن‌دهی مجدد داده‌ها، تغییر آستانه‌های تصمیم‌گیری، یا حذف ویژگی‌های حساس به شیوه‌ای دقیق.

    مهم است بدانیم تعاریف ریاضی متعددی برای عدالت وجود دارد (مثلاً برابری پیش‌بینی، برابری نرخ مثبت کاذب و غیره) که گاهی با هم در تضادند. انتخاب رویکرد مناسب عدالت نیازمند قضاوت اخلاقی و توجه به زمینه است، نه صرفاً تنظیم داده‌ها.

    بنابراین، تیم‌های هوش مصنوعی تشویق می‌شوند با کارشناسان حوزه و جوامع متاثر همکاری کنند تا معیارهای عدالت را برای کاربرد خاص تعریف نمایند.

  • نظارت انسانی و پاسخگویی: هیچ سیستم هوش مصنوعی نباید بدون پاسخگویی انسانی عمل کند. نظارت انسانی برای شناسایی و اصلاح تعصباتی که ماشین ممکن است یاد بگیرد حیاتی است.

    این به معنای حضور انسان‌ها در فرآیند تصمیم‌گیری‌های مهم است – مثلاً یک استخدام‌کننده که کاندیداهای غربال‌شده توسط هوش مصنوعی را بازبینی می‌کند، یا قاضی که با احتیاط نمره ریسک هوش مصنوعی را بررسی می‌کند.

    همچنین به معنای تعیین مسئولیت روشن است: سازمان‌ها باید به یاد داشته باشند که مسئول تصمیمات الگوریتم‌های خود هستند همان‌طور که مسئول تصمیمات کارکنان هستند. ممیزی‌های منظم تصمیمات هوش مصنوعی، ارزیابی تأثیر تعصب و قابلیت توضیح دلایل تصمیمات (قابلیت تبیین) به حفظ پاسخگویی کمک می‌کند.

    شفافیت نیز ستون دیگری است: باز بودن درباره نحوه عملکرد سیستم هوش مصنوعی و محدودیت‌های شناخته‌شده آن می‌تواند اعتماد ایجاد کرده و امکان بررسی مستقل را فراهم کند.

    در واقع، برخی حوزه‌های قضایی به سمت الزام شفافیت در تصمیمات الگوریتمی حساس حرکت می‌کنند (برای مثال، الزام نهادهای دولتی به افشای نحوه استفاده از الگوریتم‌ها در تصمیماتی که بر شهروندان تأثیر می‌گذارد). هدف این است که هوش مصنوعی تصمیم‌گیری انسانی را تقویت کند بدون جایگزینی قضاوت اخلاقی یا مسئولیت قانونی.

  • تیم‌های متنوع و توسعه فراگیر: جمعی از کارشناسان بر ارزش تنوع در میان توسعه‌دهندگان و ذینفعان هوش مصنوعی تأکید دارند. محصولات هوش مصنوعی بازتاب‌دهنده دیدگاه‌ها و نقاط کور کسانی است که آن‌ها را می‌سازند.

    بنابراین، اگر تنها گروهی همگن (مثلاً یک جنسیت، یک قومیت یا یک زمینه فرهنگی) سیستم هوش مصنوعی را طراحی کنند، ممکن است تأثیر ناعادلانه آن بر دیگران را نادیده بگیرند.

    گنجاندن صداهای متنوع – از جمله زنان، اقلیت‌های نژادی و کارشناسان علوم اجتماعی یا اخلاق – در فرآیند طراحی و آزمایش منجر به هوش مصنوعی آگاه‌تر فرهنگی می‌شود.

    یونسکو اشاره می‌کند که بر اساس داده‌های اخیر، زنان به شدت در نقش‌های هوش مصنوعی کم‌نماینده هستند (تنها حدود ۲۰٪ کارکنان فنی هوش مصنوعی و ۱۲٪ پژوهشگران هوش مصنوعی زن هستند). افزایش نمایندگی تنها مسئله برابری در محیط کار نیست، بلکه بهبود نتایج هوش مصنوعی است: اگر سیستم‌های هوش مصنوعی توسط تیم‌های متنوع توسعه نیابند، کمتر احتمال دارد نیازهای کاربران متنوع را برآورده کنند یا حقوق همه را حفظ نمایند.

    ابتکارهایی مانند پلتفرم Women4Ethical AI یونسکو به منظور افزایش تنوع و به اشتراک‌گذاری بهترین شیوه‌ها برای طراحی هوش مصنوعی بدون تبعیض ایجاد شده‌اند.

  • مقررات و دستورالعمل‌های اخلاقی: دولت‌ها و نهادهای بین‌المللی اکنون فعالانه وارد عمل شده‌اند تا اطمینان حاصل کنند که تعصب هوش مصنوعی مورد توجه قرار می‌گیرد. در سال ۲۰۲۱، کشورهای عضو یونسکو به طور یکپارچه توصیه‌نامه اخلاق هوش مصنوعی را تصویب کردند – نخستین چارچوب جهانی برای اخلاق هوش مصنوعی.

    این چارچوب اصول شفافیت، عدالت و عدم تبعیض را تثبیت کرده و بر اهمیت نظارت انسانی بر سیستم‌های هوش مصنوعی تأکید می‌کند. این اصول راهنمایی برای کشورها در تدوین سیاست‌ها و قوانین مرتبط با هوش مصنوعی است.

    به همین ترتیب، قانون جدید هوش مصنوعی اتحادیه اروپا (که قرار است در سال ۲۰۲۴ به طور کامل اجرا شود) به طور صریح پیشگیری از تعصب را در اولویت قرار داده است. یکی از اهداف اصلی این قانون کاهش تبعیض و تعصب در سیستم‌های هوش مصنوعی پرخطر است.

    این قانون الزام می‌کند که سیستم‌های به کار رفته در حوزه‌های حساس (مانند استخدام، اعتبار، اجرای قانون و غیره) ارزیابی‌های سختگیرانه‌ای از نظر عدالت داشته باشند و به طور نامتناسب به گروه‌های محافظت‌شده آسیب نرسانند.

    نقض این قوانین می‌تواند منجر به جریمه‌های سنگین شود که انگیزه قوی برای شرکت‌ها جهت ایجاد کنترل‌های تعصب فراهم می‌کند.

    علاوه بر مقررات کلی، برخی دولت‌های محلی اقدامات هدفمندی انجام داده‌اند – برای مثال، بیش از دوازده شهر بزرگ (از جمله سان‌فرانسیسکو، بوستون و مینیاپولیس) استفاده پلیس از فناوری تشخیص چهره را به دلیل تعصب نژادی و خطرات حقوق مدنی ممنوع کرده‌اند.

    در بخش صنعت، سازمان‌های استاندارد و شرکت‌های فناوری دستورالعمل‌ها و ابزارهایی (مانند کیت‌های عدالت و چارچوب‌های ممیزی) منتشر می‌کنند تا به فعالان کمک کنند اخلاق را در توسعه هوش مصنوعی بگنجانند.

    جنبش به سوی «هوش مصنوعی قابل اعتماد» ترکیبی از این تلاش‌ها است که تضمین می‌کند سیستم‌های هوش مصنوعی در عمل قانونی، اخلاقی و مقاوم باشند.

>>> آیا می‌خواهید بدانید:

تأثیر هوش مصنوعی بر مشاغل

راهبردهای کاهش تعصب هوش مصنوعی


هوش مصنوعی و تعصب الگوریتمی چالشی جهانی است که ما تازه شروع به مقابله مؤثر با آن کرده‌ایم. نمونه‌ها و تلاش‌های فوق روشن می‌سازد که تعصب هوش مصنوعی مسئله‌ای محدود نیست – بلکه فرصت‌های اقتصادی، عدالت، سلامت و همبستگی اجتماعی را در سراسر جهان تحت تأثیر قرار می‌دهد.

خبر خوب این است که آگاهی به شدت افزایش یافته و اجماعی در حال شکل‌گیری است که هوش مصنوعی باید انسان‌محور و عادلانه باشد.

رسیدن به این هدف نیازمند هوشیاری مستمر است: آزمایش مداوم سیستم‌های هوش مصنوعی برای تعصب، بهبود داده‌ها و الگوریتم‌ها، مشارکت ذینفعان متنوع و به‌روزرسانی مقررات با پیشرفت فناوری.

در اصل، مبارزه با تعصب الگوریتمی درباره همسویی هوش مصنوعی با ارزش‌های ما در برابری و عدالت است. همان‌طور که مدیرکل یونسکو، آدری آزولای، اشاره کرده است، حتی «تعصبات کوچک در محتوای [هوش مصنوعی] می‌تواند نابرابری‌ها را در دنیای واقعی به طور قابل توجهی تشدید کند».

بنابراین، پیگیری هوش مصنوعی بدون تعصب برای اطمینان از اینکه فناوری تمام اقشار جامعه را ارتقا می‌دهد نه اینکه تعصبات قدیمی را تقویت کند حیاتی است.

با اولویت دادن به اصول اخلاقی در طراحی هوش مصنوعی – و پشتیبانی آن‌ها با اقدامات و سیاست‌های ملموس – می‌توانیم قدرت نوآورانه هوش مصنوعی را به کار گیریم و در عین حال کرامت انسانی را حفظ کنیم.

راه پیش رو برای هوش مصنوعی مسیری است که ماشین‌های هوشمند از بهترین ارزش‌های بشری بیاموزند، نه از بدترین تعصبات ما، تا فناوری واقعاً به نفع همه باشد.