क्या आप एआई में एल्गोरिदमिक पक्षपात के बारे में जानना चाहते हैं? इस लेख में INVIAI के साथ जुड़ें और एआई और एल्गोरिदमिक पक्षपात के बारे में अधिक जानें!

कृत्रिम बुद्धिमत्ता (एआई) हमारे दैनिक जीवन में तेजी से समाहित हो रही है – भर्ती निर्णयों से लेकर स्वास्थ्य देखभाल और पुलिसिंग तक – लेकिन इसके उपयोग ने एल्गोरिदमिक पक्षपात को लेकर चिंताएं बढ़ा दी हैं। एल्गोरिदमिक पक्षपात का मतलब है एआई सिस्टम के आउटपुट में व्यवस्थित और अनुचित पूर्वाग्रह, जो अक्सर सामाजिक रूढ़ियों और असमानताओं को दर्शाते हैं।

मूल रूप से, एक एआई एल्गोरिदम अनजाने में अपने प्रशिक्षण डेटा या डिज़ाइन में मौजूद मानव पूर्वाग्रहों को दोहरा सकता है, जिससे भेदभावपूर्ण परिणाम उत्पन्न हो सकते हैं।

यह मुद्दा तकनीकी नैतिकता में सबसे अधिक विवादित चुनौतियों में से एक बन गया है, जिसने शोधकर्ताओं, नीति निर्माताओं और उद्योग के नेताओं का वैश्विक ध्यान आकर्षित किया है। एआई की तेज़ी से बढ़ती स्वीकृति के कारण अब पक्षपात को संबोधित करना आवश्यक हो गया है: बिना नैतिक सुरक्षा के, एआई वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहरा सकता है, जिससे सामाजिक विभाजन बढ़ते हैं और मौलिक मानव अधिकारों को भी खतरा हो सकता है।

नीचे, हम एल्गोरिदमिक पक्षपात के कारणों, इसके प्रभाव के वास्तविक उदाहरणों, और एआई को अधिक निष्पक्ष बनाने के लिए विश्व भर में हो रही कोशिशों का विश्लेषण करेंगे।

एल्गोरिदमिक पक्षपात और इसके कारणों को समझना

एल्गोरिदमिक पक्षपात आमतौर पर इसलिए उत्पन्न होता है क्योंकि एआई "भेदभाव करना चाहता है" नहीं, बल्कि मानव कारकों के कारण होता है। एआई सिस्टम डेटा से सीखते हैं और लोगों द्वारा बनाए गए नियमों का पालन करते हैं – और लोगों में (अक्सर अवचेतन) पूर्वाग्रह होते हैं।
यदि प्रशिक्षण डेटा पक्षपाती या ऐतिहासिक पूर्वाग्रहों को दर्शाता है, तो एआई संभवतः उन पैटर्न को सीख लेगा।

उदाहरण के लिए, एक रिज्यूमे-स्क्रीनिंग एआई जो तकनीकी उद्योग की एक दशक पुरानी भर्ती प्रक्रिया पर प्रशिक्षित है (जहां अधिकांश भर्ती किए गए आवेदक पुरुष थे), यह निष्कर्ष निकाल सकता है कि पुरुष उम्मीदवार अधिक उपयुक्त हैं, जिससे महिलाओं को नुकसान होगा। अन्य सामान्य कारणों में अपूर्ण या प्रतिनिधित्वहीन डेटा सेट, पक्षपाती डेटा लेबलिंग, या ऐसे एल्गोरिदम शामिल हैं जो कुल मिलाकर सटीकता के लिए अनुकूलित हैं लेकिन अल्पसंख्यक समूहों के लिए निष्पक्षता के लिए नहीं।

संक्षेप में, एआई एल्गोरिदम अपने निर्माताओं और डेटा के पूर्वाग्रहों को विरासत में लेते हैं जब तक कि उन पूर्वाग्रहों को पहचानने और सुधारने के लिए जानबूझकर कदम न उठाए जाएं।

यह ध्यान रखना महत्वपूर्ण है कि एल्गोरिदमिक पक्षपात आमतौर पर अनजाने में होता है। संगठन अक्सर निर्णयों को अधिक वस्तुनिष्ठ बनाने के लिए एआई अपनाते हैं, लेकिन यदि वे सिस्टम को पक्षपाती जानकारी देते हैं या डिज़ाइन में समानता पर ध्यान नहीं देते हैं, तो परिणाम फिर भी अनुचित हो सकता है। एआई पक्षपात अवसरों का अनुचित आवंटन कर सकता है और गलत परिणाम उत्पन्न कर सकता है, जिससे लोगों की भलाई पर नकारात्मक प्रभाव पड़ता है और एआई में विश्वास कम होता है।

पक्षपात क्यों होता है, इसे समझना समाधान की दिशा में पहला कदम है – और यह ऐसा कदम है जिसे अब विश्व भर के अकादमिक, उद्योग और सरकारें गंभीरता से ले रही हैं।

एल्गोरिदमिक पक्षपात और इसके कारणों को समझना

एआई पक्षपात के वास्तविक दुनिया के उदाहरण

एआई में पक्षपात केवल एक काल्पनिक चिंता नहीं है; कई वास्तविक दुनिया के मामले सामने आए हैं जिन्होंने दिखाया है कि एल्गोरिदमिक पक्षपात भेदभाव को कैसे जन्म दे सकता है। विभिन्न क्षेत्रों में एआई पक्षपात के उल्लेखनीय उदाहरणों में शामिल हैं:

  • आपराधिक न्याय: संयुक्त राज्य अमेरिका में, एक लोकप्रिय एल्गोरिदम जिसका उपयोग आपराधिक पुनरावृत्ति (फिर से अपराध करने की संभावना) की भविष्यवाणी के लिए किया जाता है, को काले अभियुक्तों के खिलाफ पक्षपाती पाया गया। यह अक्सर काले अभियुक्तों को उच्च जोखिम और सफेद अभियुक्तों को कम जोखिम वाला समझता था, जिससे सजा में नस्लीय असमानताएं बढ़ीं।
    यह मामला दिखाता है कि एआई पुलिसिंग और न्यायालयों में ऐतिहासिक पूर्वाग्रहों को कैसे बढ़ा सकता है।

  • भर्ती और चयन: अमेज़न ने प्रसिद्ध रूप से एक एआई भर्ती उपकरण को बंद कर दिया जब पता चला कि यह महिलाओं के खिलाफ भेदभाव कर रहा था। मशीन-लर्निंग मॉडल ने स्वयं यह सीख लिया था कि पुरुष उम्मीदवार अधिक उपयुक्त हैं, क्योंकि इसे अधिकांशतः पुरुषों के रिज्यूमे पर प्रशिक्षित किया गया था।

    परिणामस्वरूप, ऐसे रिज्यूमे जिनमें "महिलाओं" शब्द था (जैसे "महिलाओं का शतरंज क्लब कप्तान") या सभी महिला कॉलेजों के रिज्यूमे सिस्टम द्वारा कमतर आंका गया। यह पक्षपाती भर्ती एल्गोरिदम तकनीकी नौकरियों के लिए योग्य महिलाओं को अनुचित रूप से बाहर कर देता।

  • स्वास्थ्य सेवा: संयुक्त राज्य भर के अस्पतालों में उपयोग किए जाने वाले एक एल्गोरिदम को पाया गया कि यह काले मरीजों की स्वास्थ्य आवश्यकताओं को कम आंकता है सफेद मरीजों की तुलना में। सिस्टम ने देखभाल प्रबंधन प्राथमिकता का अनुमान स्वास्थ्य खर्च के आधार पर लगाया: चूंकि ऐतिहासिक रूप से काले मरीजों पर समान बीमारी के लिए कम खर्च किया गया था, एल्गोरिदम ने गलत तरीके से निष्कर्ष निकाला कि काले मरीज "स्वस्थ" हैं और उन्हें कम जोखिम स्कोर दिया।

    व्यवहार में, इस पक्षपात का मतलब था कि कई काले मरीज जिन्हें अधिक देखभाल की जरूरत थी, उन्हें नजरअंदाज किया गया – अध्ययन ने दिखाया कि काले मरीजों ने समान रूप से बीमार सफेद मरीजों की तुलना में प्रति वर्ष लगभग $1,800 कम चिकित्सा खर्च किया, जिससे एआई ने उन्हें कम उपचार दिया।

  • चेहरे की पहचान: चेहरे की पहचान तकनीक ने जनसांख्यिकीय आधार पर सटीकता में महत्वपूर्ण पक्षपात दिखाया है। अमेरिकी राष्ट्रीय मानक और प्रौद्योगिकी संस्थान (NIST) के 2019 के एक व्यापक अध्ययन में पाया गया कि अधिकांश चेहरे की पहचान एल्गोरिदम में रंगीन लोगों और महिलाओं के लिए त्रुटि दरें सफेद पुरुषों की तुलना में कहीं अधिक थीं।

    एक-से-एक मिलान परिदृश्यों (जांचना कि दो तस्वीरें एक ही व्यक्ति की हैं या नहीं) में, एशियाई और अफ्रीकी-अमेरिकी चेहरों के लिए गलत सकारात्मक पहचान कुछ एल्गोरिदम में 10 से 100 गुना अधिक थी। एक-से-कई खोजों (डेटाबेस में से किसी व्यक्ति की पहचान, जिसका उपयोग कानून प्रवर्तन करता है) में, सबसे अधिक गलत पहचान दरें काली महिलाओं के लिए थीं – एक खतरनाक पक्षपात जिसने पहले ही निर्दोष लोगों की गलत गिरफ्तारी का कारण बना है।

    ये असमानताएं दिखाती हैं कि पक्षपाती एआई हाशिए पर पड़े समूहों को असमान रूप से नुकसान पहुंचा सकता है।

  • जनरेटिव एआई और ऑनलाइन सामग्री: नवीनतम एआई सिस्टम भी इससे अछूते नहीं हैं। 2024 के एक यूनेस्को अध्ययन ने दिखाया कि बड़े भाषा मॉडल (जो चैटबॉट और सामग्री जनरेटर के पीछे हैं) अक्सर पीछे हटने वाले लिंग और नस्लीय रूढ़िवाद उत्पन्न करते हैं।

    उदाहरण के लिए, एक लोकप्रिय मॉडल ने महिलाओं को घरेलू भूमिकाओं में पुरुषों की तुलना में चार गुना अधिक वर्णित किया, जहां स्त्रीलिंग नामों को अक्सर "घर" और "बच्चे" जैसे शब्दों से जोड़ा गया, जबकि पुरुष नामों को "कार्यकारी", "वेतन" और "करियर" से जोड़ा गया। इसी तरह, अध्ययन ने पाया कि ये एआई मॉडल अपने आउटपुट में होमोफोबिक पक्षपात और सांस्कृतिक रूढ़ियों को भी दर्शाते हैं।

    चूंकि अब लाखों लोग दैनिक जीवन में जनरेटिव एआई का उपयोग करते हैं, सामग्री में सूक्ष्म पक्षपात भी वास्तविक दुनिया में असमानताओं को बढ़ा सकता है, बड़े पैमाने पर रूढ़ियों को मजबूत करता है।

ये उदाहरण स्पष्ट करते हैं कि एल्गोरिदमिक पक्षपात कोई दूर का या दुर्लभ समस्या नहीं है – यह आज विभिन्न क्षेत्रों में हो रहा है। नौकरी के अवसरों से लेकर न्याय, स्वास्थ्य सेवा से ऑनलाइन जानकारी तक, पक्षपाती एआई सिस्टम मौजूदा भेदभाव को दोहरा सकते हैं और यहां तक कि उसे बढ़ा भी सकते हैं।

इस नुकसान का भार अक्सर ऐतिहासिक रूप से वंचित समूहों पर पड़ता है, जिससे गंभीर नैतिक और मानवाधिकार संबंधी चिंताएं उठती हैं। जैसा कि यूनेस्को चेतावनी देता है, एआई के जोखिम "मौजूदा असमानताओं पर जुड़ रहे हैं, जिससे पहले से हाशिए पर पड़े समूहों को और नुकसान हो रहा है"

एआई पक्षपात के वास्तविक दुनिया के उदाहरण

एआई पक्षपात क्यों महत्वपूर्ण है?

एआई पक्षपात को संबोधित करने की जिम्मेदारी बहुत बड़ी है। यदि इसे अनियंत्रित छोड़ दिया जाए, तो पक्षपाती एल्गोरिदम प्रणालीगत भेदभाव को तकनीकी तटस्थता के आवरण के पीछे मजबूत कर सकते हैं। एआई द्वारा लिए गए (या निर्देशित) निर्णय – कौन भर्ती होता है, कौन ऋण या पैरोल पाता है, पुलिस निगरानी कैसे करती है – लोगों के जीवन पर वास्तविक प्रभाव डालते हैं।

यदि ये निर्णय कुछ लिंगों, जातियों या समुदायों के खिलाफ अनुचित रूप से झुके हुए हैं, तो सामाजिक असमानताएं बढ़ती हैं। इससे अवसरों का इनकार, आर्थिक असमानताएं, या प्रभावित समूहों के लिए व्यक्तिगत स्वतंत्रता और सुरक्षा को खतरा हो सकता है।

बड़े संदर्भ में, एल्गोरिदमिक पक्षपात मानवाधिकारों और सामाजिक न्याय को कमजोर करता है, जो लोकतांत्रिक समाजों द्वारा समर्थित समानता और गैर-भेदभाव के सिद्धांतों के विपरीत है।

एआई में पक्षपात तकनीक में सार्वजनिक विश्वास को भी कम करता है। लोग ऐसे एआई सिस्टम पर कम भरोसा करते हैं या उन्हें अपनाने में हिचकिचाते हैं जिन्हें अनुचित या अस्पष्ट माना जाता है।

व्यवसायों और सरकारों के लिए, यह विश्वास की कमी एक गंभीर समस्या है – सफल नवाचार के लिए सार्वजनिक विश्वास आवश्यक है। जैसा कि एक विशेषज्ञ ने कहा, निष्पक्ष और पक्षपात रहित एआई निर्णय केवल नैतिक रूप से सही नहीं हैं, वे व्यवसाय और समाज के लिए भी लाभकारी हैं क्योंकि टिकाऊ नवाचार विश्वास पर निर्भर करता है

इसके विपरीत, पक्षपात के कारण एआई की व्यापक रूप से प्रचारित विफलताएं (जैसे ऊपर के मामले) किसी संगठन की प्रतिष्ठा और वैधता को नुकसान पहुंचा सकती हैं।

इसके अलावा, एल्गोरिदमिक पक्षपात एआई के संभावित लाभों को कम कर सकता है। एआई दक्षता और निर्णय लेने में सुधार का वादा करता है, लेकिन यदि इसके परिणाम आबादी के कुछ हिस्सों के लिए भेदभावपूर्ण या गलत हैं, तो यह अपनी पूरी सकारात्मक क्षमता तक नहीं पहुंच सकता।

उदाहरण के लिए, एक एआई स्वास्थ्य उपकरण जो एक जनसांख्यिकीय के लिए अच्छा काम करता है लेकिन दूसरों के लिए खराब, वास्तव में प्रभावी या स्वीकार्य नहीं है। जैसा कि OECD ने देखा, एआई में पक्षपात अवसरों को अनुचित रूप से सीमित करता है और व्यवसायों की प्रतिष्ठा और उपयोगकर्ताओं के विश्वास को नुकसान पहुंचा सकता है

संक्षेप में, पक्षपात को संबोधित करना केवल एक नैतिक आवश्यकता नहीं है, बल्कि सभी व्यक्तियों के लिए निष्पक्ष तरीके से एआई के लाभों का उपयोग करने के लिए भी महत्वपूर्ण है।

एआई पक्षपात क्यों महत्वपूर्ण है

एआई पक्षपात को कम करने के लिए रणनीतियाँ

चूंकि एल्गोरिदमिक पक्षपात अब व्यापक रूप से पहचाना जा चुका है, इसलिए इसे कम करने के लिए कई रणनीतियाँ और सर्वोत्तम प्रथाएँ विकसित हुई हैं। एआई सिस्टम को निष्पक्ष और समावेशी बनाने के लिए विकास और तैनाती के कई चरणों में कार्रवाई आवश्यक है:

  • बेहतर डेटा प्रथाएँ: चूंकि पक्षपाती डेटा एक मूल कारण है, डेटा की गुणवत्ता में सुधार करना महत्वपूर्ण है। इसका मतलब है विविध, प्रतिनिधि प्रशिक्षण डेटा सेट का उपयोग करना जिसमें अल्पसंख्यक समूह शामिल हों, और पक्षपात या अंतराल के लिए कड़ाई से जांच करना।

    इसमें ऐतिहासिक पूर्वाग्रहों (जैसे जाति/लिंग के आधार पर विभिन्न परिणाम) के लिए डेटा का ऑडिट करना और मॉडल प्रशिक्षण से पहले उन्हें सुधारना या संतुलित करना शामिल है। जहां कुछ समूह कम प्रतिनिधित्व वाले हों, वहां डेटा वृद्धि या सिंथेटिक डेटा जैसी तकनीकें मदद कर सकती हैं।

    NIST के शोध ने सुझाव दिया कि अधिक विविध प्रशिक्षण डेटा चेहरे की पहचान में अधिक न्यायसंगत परिणाम दे सकता है। एआई के आउटपुट की निरंतर निगरानी भी पक्षपात की समस्याओं को जल्दी पहचान सकती है – जो मापा जाता है, उसे प्रबंधित किया जाता है। यदि कोई संगठन अपने एल्गोरिदम के निर्णयों में जनसांख्यिकीय भिन्नताओं का ठोस डेटा एकत्र करता है, तो वे अनुचित पैटर्न की पहचान कर सकते हैं और उन्हें संबोधित कर सकते हैं।

  • निष्पक्ष एल्गोरिदम डिज़ाइन: डेवलपर्स को मॉडल प्रशिक्षण में निष्पक्षता प्रतिबंध और पक्षपात कम करने की तकनीकों को जानबूझकर शामिल करना चाहिए। इसमें ऐसे एल्गोरिदम का उपयोग शामिल हो सकता है जिन्हें निष्पक्षता के लिए समायोजित किया जा सकता है (केवल सटीकता के लिए नहीं), या समूहों के बीच त्रुटि दरों को समान करने के लिए तकनीकों का उपयोग।

    अब कई उपकरण और फ्रेमवर्क (कई ओपन-सोर्स) उपलब्ध हैं जो मॉडल का पक्षपात के लिए परीक्षण और समायोजन करते हैं – उदाहरण के लिए, डेटा का पुनःभार, निर्णय सीमा में बदलाव, या संवेदनशील विशेषताओं को सावधानीपूर्वक हटाना।

    महत्वपूर्ण बात यह है कि निष्पक्षता की कई गणितीय परिभाषाएं हैं (जैसे समान भविष्यवाणी समानता, समान गलत सकारात्मक दरें आदि), और कभी-कभी वे आपस में विरोधाभासी होती हैं। सही निष्पक्षता दृष्टिकोण चुनना नैतिक निर्णय और संदर्भ की मांग करता है, केवल डेटा समायोजन नहीं।

    इसलिए, एआई टीमों को किसी विशेष आवेदन के लिए निष्पक्षता मानदंड निर्धारित करते समय डोमेन विशेषज्ञों और प्रभावित समुदायों के साथ काम करने के लिए प्रोत्साहित किया जाता है।

  • मानव निगरानी और जवाबदेही: कोई भी एआई सिस्टम बिना मानव जवाबदेही के अकेले काम नहीं करना चाहिए। मानव निगरानी आवश्यक है ताकि मशीन द्वारा सीखे गए पक्षपात को पकड़ा और सुधारा जा सके।

    इसका मतलब है महत्वपूर्ण निर्णयों में मानव को शामिल करना – जैसे एआई-स्क्रीन किए गए उम्मीदवारों की समीक्षा करने वाला भर्तीकर्ता, या एआई जोखिम स्कोर को सावधानी से देखने वाला न्यायाधीश।

    यह स्पष्ट जिम्मेदारी सौंपने का भी मतलब है: संगठनों को याद रखना चाहिए कि वे अपने एल्गोरिदम द्वारा लिए गए निर्णयों के लिए उतने ही जिम्मेदार हैं जितना कि कर्मचारियों द्वारा लिए गए निर्णयों के लिए। एआई निर्णयों के नियमित ऑडिट, पक्षपात प्रभाव आकलन, और एआई तर्क (व्याख्यात्मकता) की क्षमता जवाबदेही बनाए रखने में मदद करती है।

    पारदर्शिता भी यहां एक स्तंभ है: यह बताना कि एआई सिस्टम कैसे काम करता है और इसकी ज्ञात सीमाएं क्या हैं, विश्वास बनाने और स्वतंत्र जांच की अनुमति देने में मदद करता है।

    वास्तव में, कुछ न्यायक्षेत्र उच्च-जोखिम एल्गोरिदमिक निर्णयों के लिए पारदर्शिता को अनिवार्य करने की दिशा में बढ़ रहे हैं (उदाहरण के लिए, सार्वजनिक एजेंसियों को यह बताने की आवश्यकता कि नागरिकों को प्रभावित करने वाले निर्णयों में एल्गोरिदम कैसे उपयोग किए जाते हैं)। लक्ष्य यह सुनिश्चित करना है कि एआई नैतिक निर्णय या कानूनी जिम्मेदारी को प्रतिस्थापित किए बिना मानव निर्णय लेने को बढ़ावा दे।

  • विविध टीम और समावेशी विकास: विशेषज्ञों का बढ़ता समूह एआई डेवलपर्स और हितधारकों में विविधता के महत्व पर जोर देता है। एआई उत्पाद उन लोगों के दृष्टिकोण और अंधेरे स्थानों को प्रतिबिंबित करते हैं जो उन्हें बनाते हैं।

    इसलिए, यदि केवल एक समान समूह (जैसे एक लिंग, एक जातीयता, या एक सांस्कृतिक पृष्ठभूमि) एआई सिस्टम डिजाइन करता है, तो वे यह अनदेखा कर सकते हैं कि यह दूसरों को अनुचित रूप से कैसे प्रभावित कर सकता है।

    डिजाइन और परीक्षण प्रक्रिया में विविध आवाज़ें – जिनमें महिलाएं, जातीय अल्पसंख्यक, और सामाजिक विज्ञान या नैतिकता के विशेषज्ञ शामिल हैं – अधिक सांस्कृतिक रूप से जागरूक एआई की ओर ले जाती हैं।

    यूनेस्को बताता है कि हाल के आंकड़ों के अनुसार, एआई भूमिकाओं में महिलाएं बहुत कम प्रतिनिधित्व रखती हैं (केवल ~20% तकनीकी एआई कर्मचारी और 12% एआई शोधकर्ता महिलाएं हैं)। प्रतिनिधित्व बढ़ाना केवल कार्यस्थल समानता के बारे में नहीं है, बल्कि एआई परिणामों में सुधार के लिए भी है: यदि एआई सिस्टम विविध टीमों द्वारा विकसित नहीं किए जाते हैं, तो वे विविध उपयोगकर्ताओं की जरूरतों को पूरा करने या सभी के अधिकारों की रक्षा करने की संभावना कम रखते हैं।

    यूनेस्को का Women4Ethical AI प्लेटफ़ॉर्म विविधता बढ़ाने और गैर-भेदभावपूर्ण एआई डिज़ाइन के लिए सर्वोत्तम प्रथाओं को साझा करने का प्रयास करता है।

  • नियमन और नैतिक दिशानिर्देश: सरकारें और अंतरराष्ट्रीय निकाय अब सक्रिय रूप से कदम उठा रहे हैं ताकि एआई पक्षपात को संबोधित किया जा सके। 2021 में, यूनेस्को के सदस्य देशों ने सर्वसम्मति से कृत्रिम बुद्धिमत्ता की नैतिकता पर सिफारिश को अपनाया – एआई नैतिकता के लिए पहला वैश्विक ढांचा।

    यह पारदर्शिता, निष्पक्षता, और गैर-भेदभाव के सिद्धांतों को स्थापित करता है, और एआई सिस्टम की मानव निगरानी के महत्व पर जोर देता है। ये सिद्धांत राष्ट्रों को एआई के लिए नीतियां और कानून बनाने में मार्गदर्शन करते हैं।

    इसी तरह, यूरोपीय संघ का नया एआई अधिनियम (जो 2024 में पूरी तरह लागू होगा) स्पष्ट रूप से पक्षपात रोकथाम को प्राथमिकता देता है। एआई अधिनियम का एक मुख्य उद्देश्य उच्च-जोखिम वाले एआई सिस्टम में भेदभाव और पक्षपात को कम करना है

    यह अधिनियम संवेदनशील क्षेत्रों (जैसे भर्ती, क्रेडिट, कानून प्रवर्तन आदि) में उपयोग किए जाने वाले सिस्टमों के लिए निष्पक्षता के कड़े मूल्यांकन की आवश्यकता करेगा और सुनिश्चित करेगा कि वे संरक्षित समूहों को अनुचित रूप से नुकसान न पहुंचाएं।

    उल्लंघन पर भारी जुर्माने लग सकते हैं, जो कंपनियों को पक्षपात नियंत्रण विकसित करने के लिए प्रोत्साहित करता है।

    व्यापक नियमों के अलावा, कुछ स्थानीय सरकारों ने लक्षित कार्रवाई की है – उदाहरण के लिए, सैन फ्रांसिस्को, बॉस्टन और मिनियापोलिस सहित दर्जनों प्रमुख शहरों ने पुलिस द्वारा चेहरे की पहचान तकनीक के उपयोग पर पूरी तरह प्रतिबंध लगा दिया है क्योंकि यह नस्लीय पक्षपात और नागरिक अधिकारों के जोखिमों को दर्शाता है।

    उद्योग की ओर से, मानक संगठन और तकनीकी कंपनियां दिशानिर्देश प्रकाशित कर रही हैं और उपकरण विकसित कर रही हैं (जैसे निष्पक्षता टूलकिट और ऑडिट फ्रेमवर्क) ताकि प्रैक्टिशनर्स एआई विकास में नैतिकता को शामिल कर सकें।

    "विश्वसनीय एआई" की दिशा में यह आंदोलन इन प्रयासों का संयोजन है, जो सुनिश्चित करता है कि एआई सिस्टम कानूनी, नैतिक, और मजबूत हों।

>>> क्या आप जानना चाहते हैं:

एआई का रोजगार पर प्रभाव

एआई पक्षपात को कम करने के लिए रणनीतियाँ


एआई और एल्गोरिदमिक पक्षपात एक वैश्विक चुनौती है जिसे हम अभी प्रभावी ढंग से हल करना शुरू कर रहे हैं। ऊपर दिए गए उदाहरण और प्रयास स्पष्ट करते हैं कि एआई पक्षपात कोई सीमित समस्या नहीं है – यह आर्थिक अवसरों, न्याय, स्वास्थ्य और सामाजिक एकजुटता को विश्व स्तर पर प्रभावित करता है।

अच्छी खबर यह है कि जागरूकता में तेज़ी से वृद्धि हुई है, और एक सहमति बन रही है कि एआई को मानव-केंद्रित और निष्पक्ष होना चाहिए।

इसे प्राप्त करने के लिए सतत सतर्कता की आवश्यकता होगी: एआई सिस्टम का लगातार पक्षपात के लिए परीक्षण करना, डेटा और एल्गोरिदम में सुधार करना, विविध हितधारकों को शामिल करना, और तकनीक के विकास के साथ नियमों को अपडेट करना।

मूल रूप से, एल्गोरिदमिक पक्षपात से लड़ना एआई को हमारे समानता और निष्पक्षता के मूल्यों के अनुरूप बनाना है। जैसा कि यूनेस्को की महानिदेशक ऑड्रे अजुले ने कहा, यहां तक कि "[एआई] सामग्री में छोटे पक्षपात भी वास्तविक दुनिया में असमानताओं को काफी बढ़ा सकते हैं"

इसलिए, पक्षपात रहित एआई की खोज यह सुनिश्चित करने के लिए महत्वपूर्ण है कि तकनीक समाज के सभी वर्गों को ऊपर उठाए, न कि पुराने पूर्वाग्रहों को मजबूत करे

एआई डिज़ाइन में नैतिक सिद्धांतों को प्राथमिकता देकर – और उन्हें ठोस कार्रवाई और नीतियों के साथ समर्थन देकर – हम एआई की नवाचार शक्ति का उपयोग मानव गरिमा की रक्षा करते हुए कर सकते हैं।

एआई के लिए आगे का रास्ता ऐसा है जहां बुद्धिमान मशीनें मानवता के सर्वोत्तम मूल्यों से सीखें, न कि हमारे सबसे बुरे पूर्वाग्रहों से, जिससे तकनीक वास्तव में सभी के लिए लाभकारी हो सके।