एआई के उपयोग के जोखिम

कृत्रिम बुद्धिमत्ता (एआई) कई लाभ लाती है लेकिन यदि इसका दुरुपयोग किया जाए या बिना नियंत्रण के उपयोग किया जाए तो कई जोखिम भी उत्पन्न होते हैं। डेटा सुरक्षा समस्याओं, सूचना विकृति, कॉपीराइट उल्लंघन से लेकर श्रम प्रतिस्थापन के जोखिम तक, एआई ऐसे चुनौतियाँ प्रस्तुत करता है जिन्हें पहचानना और प्रभावी ढंग से प्रबंधित करना आवश्यक है। एआई के उपयोग के जोखिमों को समझना व्यक्तियों और व्यवसायों को इस तकनीक का सुरक्षित और सतत उपयोग करने में मदद करता है।

कृत्रिम बुद्धिमत्ता (एआई) अब स्मार्टफोन असिस्टेंट्स और सोशल मीडिया फीड्स से लेकर स्वास्थ्य सेवा और परिवहन तक हर जगह शामिल हो गई है। ये तकनीकें अभूतपूर्व लाभ लाती हैं, लेकिन इनके साथ महत्वपूर्ण जोखिम और चुनौतियाँ भी जुड़ी हैं।

महत्वपूर्ण चेतावनी: विशेषज्ञ और वैश्विक संस्थान चेतावनी देते हैं कि उचित नैतिक सीमाओं के बिना, एआई वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहरा सकता है, पर्यावरणीय क्षति में योगदान दे सकता है, मानवाधिकारों को खतरा पहुंचा सकता है, और मौजूदा असमानताओं को बढ़ा सकता है।

इस लेख में, आइए INVIAI के साथ एआई के उपयोग के जोखिम को सभी क्षेत्रों और प्रकारों में देखें – चैटबॉट्स और एल्गोरिदम से लेकर रोबोट तक – आधिकारिक और अंतरराष्ट्रीय स्रोतों से मिली जानकारी के आधार पर।

अनुक्रमणिका

एआई सिस्टम में पूर्वाग्रह और भेदभाव

एआई का एक प्रमुख जोखिम पूर्वाग्रह और अनुचित भेदभाव का गहरा होना है। एआई मॉडल ऐसे डेटा से सीखते हैं जो ऐतिहासिक पूर्वाग्रहों या असमानताओं को दर्शा सकता है; परिणामस्वरूप, एआई सिस्टम लोगों को जाति, लिंग या अन्य विशेषताओं के आधार पर अलग-अलग तरीके से व्यवहार कर सकता है जो अन्याय को बढ़ावा देते हैं।

गलत काम करने वाला सामान्य प्रयोजन एआई संरक्षित विशेषताओं जैसे जाति, लिंग, संस्कृति, उम्र और विकलांगता के संदर्भ में पूर्वाग्रहपूर्ण निर्णयों के माध्यम से नुकसान पहुंचा सकता है।

— अंतरराष्ट्रीय एआई सुरक्षा रिपोर्ट
वास्तविक दुनिया का प्रभाव: भर्ती, ऋण देने या पुलिसिंग में उपयोग किए गए पूर्वाग्रहपूर्ण एल्गोरिदम पहले ही असमान परिणामों का कारण बन चुके हैं जो कुछ समूहों को अनुचित रूप से नुकसान पहुंचाते हैं।

यूनेस्को जैसे वैश्विक निकाय चेतावनी देते हैं कि निष्पक्षता उपायों के बिना, एआई जोखिम उठाता है "वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहराने, विभाजन को बढ़ावा देने और मौलिक मानवाधिकारों और स्वतंत्रताओं को खतरे में डालने" का। यह सुनिश्चित करना आवश्यक है कि एआई सिस्टम विविध, प्रतिनिधि डेटा पर प्रशिक्षित हों और पूर्वाग्रह के लिए ऑडिट किए जाएं ताकि स्वचालित भेदभाव को रोका जा सके।

भर्ती में पूर्वाग्रह

एआई भर्ती उपकरण कुछ जनसांख्यिकीय समूहों के खिलाफ भेदभाव कर सकते हैं

ऋण भेदभाव

वित्तीय एल्गोरिदम संरक्षित विशेषताओं के आधार पर अनुचित रूप से ऋण अस्वीकार कर सकते हैं

पुलिसिंग असमानता

पूर्वानुमानित पुलिसिंग मौजूदा कानून प्रवर्तन पूर्वाग्रहों को मजबूत कर सकती है

एआई सिस्टम में पूर्वाग्रह और भेदभाव
एआई सिस्टम में पूर्वाग्रह और भेदभाव

गलत सूचना और डीपफेक खतरे

एआई की अत्यंत यथार्थवादी टेक्स्ट, छवियाँ और वीडियो बनाने की क्षमता ने गलत सूचना के प्रकोप का डर पैदा कर दिया है। जनरेटिव एआई विश्वसनीय नकली समाचार लेख, झूठी छवियाँ, या डीपफेक वीडियो बना सकता है जिन्हें वास्तविकता से अलग करना मुश्किल होता है।

वैश्विक जोखिम चेतावनी: विश्व आर्थिक मंच की ग्लोबल रिस्क रिपोर्ट 2024 ने "मैनिपुलेटेड और फाल्सिफाइड जानकारी" को सबसे गंभीर अल्पकालिक वैश्विक जोखिम के रूप में पहचाना है, यह नोट करते हुए कि एआई "मैनिपुलेटेड और विकृत जानकारी को बढ़ा रहा है जो समाजों को अस्थिर कर सकता है।"

वास्तव में, एआई द्वारा बढ़ाई गई गलत सूचना और भ्रामक सूचना लोकतांत्रिक प्रक्रिया के लिए "सबसे बड़ी चुनौतियों में से एक" है – खासकर उन अरबों लोगों के लिए जो आगामी चुनावों में मतदान करने वाले हैं। डीपफेक वीडियो और एआई-क्लोन की गई आवाज़ें प्रचार फैलाने, सार्वजनिक हस्तियों का नकल करने या धोखाधड़ी करने के लिए हथियारबंद की जा सकती हैं।

डीपफेक वीडियो

अत्यंत यथार्थवादी नकली वीडियो जो किसी की भी नकल कर सकते हैं, धोखाधड़ी या राजनीतिक हेरफेर के लिए उपयोग किए जा सकते हैं।

वॉइस क्लोनिंग

एआई-जनित आवाज़ की प्रतिकृतियाँ जो किसी की भी बोलने की शैली की नकल कर सकती हैं, धोखाधड़ी के लिए।

अधिकारी चेतावनी देते हैं कि दुष्ट तत्व बड़े पैमाने पर गलत सूचना अभियानों के लिए एआई का उपयोग कर सकते हैं, जिससे सोशल नेटवर्क्स को नकली सामग्री से भरना और अराजकता फैलाना आसान हो जाता है। जोखिम एक निराशाजनक सूचना वातावरण का है जहाँ नागरिक जो देखते या सुनते हैं उस पर भरोसा नहीं कर सकते, जिससे सार्वजनिक संवाद और लोकतंत्र कमजोर होता है।

एआई में गलत सूचना और डीपफेक खतरे
एआई में गलत सूचना और डीपफेक खतरे

गोपनीयता और व्यापक निगरानी के खतरे

एआई के व्यापक उपयोग से गंभीर गोपनीयता चिंताएँ उठती हैं। एआई सिस्टम अक्सर प्रभावी ढंग से काम करने के लिए हमारे चेहरे, आवाज़, खरीदारी की आदतें और स्थान जैसी बड़ी मात्रा में व्यक्तिगत डेटा की आवश्यकता होती है। मजबूत सुरक्षा उपायों के बिना, इस डेटा का दुरुपयोग या शोषण हो सकता है।

यूनेस्को चेतावनी: एआई सिस्टम का सामाजिक स्कोरिंग या व्यापक निगरानी के लिए उपयोग नहीं किया जाना चाहिए। ऐसे उपयोग व्यापक रूप से अस्वीकार्य जोखिम माने जाते हैं।

उदाहरण के लिए, चेहरे की पहचान और पूर्वानुमानित एल्गोरिदम व्यापक निगरानी सक्षम कर सकते हैं, जो बिना सहमति के व्यक्तियों की हर गतिविधि को ट्रैक कर सकते हैं या उनके व्यवहार को रेट कर सकते हैं।

चेहरे की पहचान

सार्वजनिक स्थानों में व्यक्तियों का निरंतर ट्रैकिंग

  • पहचान ट्रैकिंग
  • व्यवहार विश्लेषण

पूर्वानुमानित विश्लेषण

एआई विश्लेषण जो व्यक्तिगत विवरण प्रकट करता है

  • स्वास्थ्य स्थिति
  • राजनीतिक विश्वास

सामाजिक स्कोरिंग

व्यवहार पैटर्न के आधार पर नागरिकों का मूल्यांकन

  • क्रेडिट स्कोरिंग
  • सामाजिक अनुपालन

गोपनीयता मानव गरिमा, स्वायत्तता और एजेंसी की सुरक्षा के लिए आवश्यक अधिकार है जिसे एआई सिस्टम के जीवन चक्र के दौरान सम्मानित किया जाना चाहिए।

— डेटा संरक्षण एजेंसियां

यदि एआई विकास गोपनीयता नियमों से आगे निकल जाता है, तो व्यक्ति अपनी जानकारी पर नियंत्रण खो सकते हैं। समाज को यह सुनिश्चित करना चाहिए कि मजबूत डेटा शासन, सहमति तंत्र, और गोपनीयता-संरक्षण तकनीकें मौजूद हों ताकि एआई तकनीकें अनियंत्रित निगरानी के उपकरण न बनें।

गोपनीयता और व्यापक निगरानी के खतरे
गोपनीयता और व्यापक निगरानी के खतरे

सुरक्षा विफलताएँ और अनचाहा नुकसान

जबकि एआई निर्णयों और भौतिक कार्यों को सुपरह्यूमन दक्षता के साथ स्वचालित कर सकता है, यह अनपेक्षित तरीकों से विफल भी हो सकता है, जिससे वास्तविक दुनिया में नुकसान हो सकता है। हम एआई को अधिक से अधिक सुरक्षा-संवेदनशील जिम्मेदारियां सौंपते हैं – जैसे कार चलाना, रोगियों का निदान करना, या पावर ग्रिड प्रबंधित करना – लेकिन ये सिस्टम अपराजेय नहीं हैं।

गलतियां, दोषपूर्ण प्रशिक्षण डेटा, या अप्रत्याशित परिस्थितियां एआई को खतरनाक गलतियां करने का कारण बन सकती हैं। एक सेल्फ-ड्राइविंग कार का एआई पैदल यात्री को गलत पहचान सकता है, या एक चिकित्सा एआई गलत उपचार की सिफारिश कर सकता है, जिसके परिणाम घातक हो सकते हैं।

स्वायत्त वाहन

पैदल यात्रियों या बाधाओं की गलत पहचान जिससे दुर्घटनाएं होती हैं

चिकित्सा एआई

गलत निदान या उपचार सिफारिशें जिनके जीवन-धमकाने वाले परिणाम हो सकते हैं

पावर ग्रिड प्रबंधन

सिस्टम विफलताएं जो व्यापक ब्लैकआउट या अवसंरचना क्षति का कारण बनती हैं

अनचाहे नुकसान (सुरक्षा जोखिम), साथ ही हमलों के प्रति कमजोरियां (सुरक्षा जोखिम) को एआई सिस्टम के जीवन चक्र के दौरान टाला और संबोधित किया जाना चाहिए ताकि मानव, पर्यावरण और पारिस्थितिकी तंत्र की सुरक्षा सुनिश्चित हो सके।

— अंतरराष्ट्रीय एआई दिशानिर्देश
महत्वपूर्ण सिद्धांत: जीवन और मृत्यु के निर्णय एआई सिस्टम को नहीं सौंपे जाने चाहिए। उच्च जोखिम वाले अनुप्रयोगों में मानव निगरानी बनाए रखना आवश्यक है।

दूसरे शब्दों में, एआई सिस्टम का कठोर परीक्षण, निगरानी और फेल-सेफ के साथ निर्माण आवश्यक है ताकि विफलताओं की संभावना न्यूनतम हो। एआई पर अत्यधिक निर्भरता भी जोखिम भरी हो सकती है – यदि मनुष्य स्वचालित निर्णयों पर अंधविश्वास करते हैं, तो वे समय पर हस्तक्षेप नहीं कर पाएंगे जब कुछ गलत हो।

इसलिए मानव निगरानी सुनिश्चित करना महत्वपूर्ण है। उच्च जोखिम वाले उपयोगों (जैसे स्वास्थ्य सेवा या परिवहन) में अंतिम निर्णय मानव निर्णय पर निर्भर होना चाहिए। एआई में सुरक्षा और विश्वसनीयता बनाए रखना एक सतत चुनौती है, जिसके लिए एआई डेवलपर्स से सावधानीपूर्वक डिजाइन और जिम्मेदारी की संस्कृति की आवश्यकता होती है।

एआई में सुरक्षा विफलताएँ और अनचाहा नुकसान
एआई में सुरक्षा विफलताएँ और अनचाहा नुकसान

नौकरी विस्थापन और आर्थिक व्यवधान

एआई का अर्थव्यवस्था पर परिवर्तनकारी प्रभाव दोधारी तलवार है। एक ओर, एआई उत्पादकता बढ़ा सकता है और पूरी नई उद्योग बना सकता है; दूसरी ओर, यह स्वचालन के माध्यम से लाखों श्रमिकों को विस्थापित करने का जोखिम भी रखता है।

कई नौकरियां – विशेष रूप से वे जो नियमित, दोहराए जाने वाले कार्यों या आसानी से विश्लेषण किए जाने वाले डेटा से संबंधित हैं – एआई एल्गोरिदम और रोबोट द्वारा अधिग्रहित होने के लिए संवेदनशील हैं।

गंभीर पूर्वानुमान: विश्व आर्थिक मंच का अनुमान है कि 2030 तक एआई और संबंधित तकनीकों के कारण 92 मिलियन नौकरियां विस्थापित हो सकती हैं।
वर्तमान कार्यबल

पारंपरिक नौकरियां

  • नियमित, दोहराए जाने वाले कार्य
  • डेटा विश्लेषण की भूमिकाएं
  • मैनुअल श्रम पद
  • मूल ग्राहक सेवा
एआई-संचालित अर्थव्यवस्था

नई कौशल आवश्यकताएं

  • एआई सहयोग कौशल
  • रचनात्मक समस्या समाधान
  • तकनीकी एआई प्रबंधन
  • मानव-केंद्रित सेवाएं

हालांकि अर्थव्यवस्था नई भूमिकाएं भी बना सकती है (संभावित रूप से खोई हुई नौकरियों से अधिक), संक्रमण कई लोगों के लिए दर्दनाक होगा। प्राप्त की गई नौकरियां अक्सर अलग, अधिक उन्नत कौशल की मांग करती हैं या कुछ तकनीकी केंद्रों में केंद्रित होती हैं, जिसका अर्थ है कि कई विस्थापित श्रमिकों के लिए नई जगह पाना मुश्किल हो सकता है।

यह कौशलों के बीच असंगति जो श्रमिकों के पास है और नई एआई-संचालित भूमिकाओं की मांग करती हैं उच्च बेरोजगारी और असमानता का कारण बन सकती है यदि इसे संबोधित न किया जाए। वास्तव में, नीति निर्माता और शोधकर्ता चेतावनी देते हैं कि तेज़ एआई प्रगति "श्रम बाजार में व्यवधान और आर्थिक शक्ति की असमानताएं" ला सकती है।

लिंग प्रभाव

महिलाओं द्वारा अधिक संख्या में रखी गई नौकरियां स्वचालन के जोखिम में हैं

विकासशील देश

विकासशील देशों के श्रमिकों को उच्च स्वचालन जोखिम का सामना करना पड़ता है

सक्रिय उपायों (जैसे पुनः प्रशिक्षण कार्यक्रम, एआई कौशल में शिक्षा, और सामाजिक सुरक्षा जाल) के बिना, एआई सामाजिक-आर्थिक अंतराल को बढ़ा सकता है, एक ऐसी एआई-संचालित अर्थव्यवस्था बनाकर जहाँ तकनीक के मालिक अधिकांश लाभ उठाते हैं।

कार्यबल को एआई के प्रभाव के लिए तैयार करना आवश्यक है ताकि स्वचालन के लाभ व्यापक रूप से साझा किए जा सकें और व्यापक नौकरी हानि से सामाजिक उथल-पुथल को रोका जा सके।

एआई में नौकरी विस्थापन और आर्थिक व्यवधान
एआई में नौकरी विस्थापन और आर्थिक व्यवधान

आपराधिक दुरुपयोग, धोखाधड़ी, और सुरक्षा खतरे

एआई एक शक्तिशाली उपकरण है जिसे उतनी ही आसानी से दुष्ट उद्देश्यों के लिए इस्तेमाल किया जा सकता है जितना कि नेक उद्देश्यों के लिए। साइबर अपराधी और अन्य दुष्ट तत्व पहले से ही अपने हमलों को बढ़ाने के लिए एआई का उपयोग कर रहे हैं।

उदाहरण के लिए, एआई अत्यंत व्यक्तिगत फ़िशिंग ईमेल या वॉइस मैसेज (किसी की आवाज़ की नकल करके) बना सकता है ताकि लोगों को संवेदनशील जानकारी प्रकट करने या पैसे भेजने के लिए धोखा दिया जा सके। यह सॉफ़्टवेयर कमजोरियों को बड़े पैमाने पर खोजने या पहचान से बचने वाले मैलवेयर विकसित करने के लिए भी इस्तेमाल किया जा सकता है।

एआई-संचालित फ़िशिंग

बड़े पैमाने पर अत्यंत व्यक्तिगत धोखाधड़ी ईमेल उत्पन्न करना

स्वचालित हैकिंग

एआई सिस्टम मानव हैकर्स से तेज़ी से कमजोरियां खोजते हैं

अनुकूलनशील मैलवेयर

स्वयं-संशोधित करने वाला दुर्भावनापूर्ण सॉफ़्टवेयर जो पहचान से बचता है

दुष्ट तत्व बड़े पैमाने पर गलत सूचना और प्रभाव अभियान, धोखाधड़ी, और घोटालों के लिए एआई का उपयोग कर सकते हैं।

— यू.के. सरकार-आयोगित रिपोर्ट

एआई सुरक्षा केंद्र एआई के दुष्ट उपयोग को एक प्रमुख चिंता के रूप में पहचानता है, जिसमें अपराधियों द्वारा बड़े पैमाने पर धोखाधड़ी और साइबर हमले करने के परिदृश्य शामिल हैं।

एआई की गति, पैमाना, और परिष्कार पारंपरिक सुरक्षा उपायों को अभिभूत कर सकते हैं – कल्पना करें कि एक दिन में हजारों एआई-जनित घोटाला कॉल या डीपफेक वीडियो किसी कंपनी की सुरक्षा को निशाना बना रहे हों।

उभरते खतरे: एआई का उपयोग पहचान चोरी, उत्पीड़न, और हानिकारक सामग्री जैसे गैर-सहमति डीपफेक पोर्नोग्राफी या चरमपंथी समूहों के लिए प्रचार बनाने में किया जा रहा है।

जैसे-जैसे एआई उपकरण अधिक सुलभ होते जा रहे हैं, इन दुष्ट गतिविधियों को अंजाम देने की बाधा कम हो रही है, जिससे एआई-संवर्धित अपराध में वृद्धि हो सकती है।

इसलिए साइबर सुरक्षा और कानून प्रवर्तन के लिए नए दृष्टिकोण आवश्यक हैं, जैसे डीपफेक या असामान्य व्यवहार का पता लगाने वाले एआई सिस्टम और अपराधियों को जवाबदेह ठहराने के लिए अद्यतन कानूनी ढांचे। मूल रूप से, हमें यह मानना होगा कि जो भी क्षमता एआई लाभार्थियों को प्रदान करता है, वह अपराधियों को भी समान रूप से प्रदान कर सकता है – और तदनुसार तैयारी करनी चाहिए।

एआई में आपराधिक दुरुपयोग, धोखाधड़ी, और सुरक्षा खतरे
एआई में आपराधिक दुरुपयोग, धोखाधड़ी, और सुरक्षा खतरे

सैन्यीकरण और स्वायत्त हथियार

शायद एआई का सबसे भयावह जोखिम युद्ध और राष्ट्रीय सुरक्षा के संदर्भ में उभरता है। एआई तेजी से सैन्य प्रणालियों में एकीकृत हो रहा है, जिससे स्वायत्त हथियारों ("किलर रोबोट") और युद्ध में एआई-संचालित निर्णय लेने की संभावना बढ़ रही है।

ये तकनीकें किसी भी मानव से तेज़ प्रतिक्रिया कर सकती हैं, लेकिन घातक बल के उपयोग से मानव नियंत्रण हटाना खतरनाक है। जोखिम है कि एआई-नियंत्रित हथियार गलत लक्ष्य चुन सकता है या अनपेक्षित तरीकों से संघर्ष को बढ़ा सकता है।

अंतरराष्ट्रीय चिंता: सैन्य उपयोग के लिए एआई के हथियारबंद होने को अंतरराष्ट्रीय पर्यवेक्षकों द्वारा बढ़ते खतरे के रूप में पहचाना गया है।

लक्ष्य चयन त्रुटियां

एआई हथियार नागरिकों को लड़ाकों के रूप में गलत पहचान सकते हैं

  • गलत सकारात्मक पहचान
  • नागरिक हताहत

संघर्ष वृद्धि

स्वायत्त प्रणालियां मानव इरादे से परे स्थितियों को बढ़ा सकती हैं

  • तेज प्रतिक्रिया चक्र
  • अनियंत्रित वृद्धि

यदि राष्ट्र अपने हथियारों को बुद्धिमान हथियारों से लैस करने की दौड़ में लग जाते हैं, तो यह एक अस्थिर करने वाली हथियारों की दौड़ को जन्म दे सकता है। इसके अलावा, एआई का उपयोग साइबर युद्ध में महत्वपूर्ण अवसंरचना पर स्वायत्त हमले करने या प्रचार फैलाने के लिए किया जा सकता है, जिससे शांति और संघर्ष के बीच की रेखा धुंधली हो जाती है।

युद्ध में एआई का विकास, यदि कुछ के हाथों में केंद्रित हो, तो इसे लोगों पर बिना उनकी सहमति के लागू किया जा सकता है, जिससे वैश्विक सुरक्षा और नैतिकता कमजोर हो सकती है।

— संयुक्त राष्ट्र

स्वायत्त हथियार प्रणालियां कानूनी और नैतिक दुविधाएं भी प्रस्तुत करती हैं – यदि एआई ड्रोन गलती से नागरिकों को मारता है तो कौन जिम्मेदार होगा? ऐसे सिस्टम अंतरराष्ट्रीय मानवीय कानून का पालन कैसे करते हैं?

इन अनुत्तरित प्रश्नों ने कुछ एआई-सक्षम हथियारों पर प्रतिबंध या कड़ी विनियमन की मांग की है। जीवन और मृत्यु के निर्णय लेने वाले किसी भी एआई पर मानव निगरानी सुनिश्चित करना व्यापक रूप से सर्वोपरि माना जाता है। इसके बिना, जोखिम केवल युद्धक्षेत्र पर दुखद गलतियां नहीं बल्कि युद्ध में मानव जिम्मेदारी का क्षरण भी है।

एआई में सैन्यीकरण और स्वायत्त हथियार
एआई में सैन्यीकरण और स्वायत्त हथियार

पारदर्शिता और जवाबदेही की कमी

आज के अधिकांश उन्नत एआई सिस्टम "ब्लैक बॉक्स" के रूप में काम करते हैं – उनकी आंतरिक तर्क अक्सर उनके निर्माताओं के लिए भी अस्पष्ट होती है। पारदर्शिता की यह कमी जोखिम पैदा करती है कि एआई निर्णयों को समझाया या चुनौती नहीं दिया जा सकता, जो न्याय, वित्त या स्वास्थ्य सेवा जैसे क्षेत्रों में गंभीर समस्या है जहाँ व्याख्यात्मकता कानूनी या नैतिक आवश्यकता हो सकती है।

यदि एआई किसी को ऋण अस्वीकार करता है, बीमारी का निदान करता है, या यह तय करता है कि कौन जेल से पैरोल पर जाएगा, तो हम स्वाभाविक रूप से जानना चाहते हैं क्यों। कुछ एआई मॉडलों (विशेषकर जटिल न्यूरल नेटवर्क) के साथ, स्पष्ट तर्क प्रदान करना कठिन होता है।

कानूनी निर्णय

पैरोल, सजा, और कानूनी निर्णय जो अस्पष्ट एआई सिस्टम द्वारा लिए जाते हैं

वित्तीय सेवाएं

स्पष्ट व्याख्या के बिना ऋण स्वीकृति और क्रेडिट निर्णय

स्वास्थ्य सेवा

अस्पष्ट एआई से चिकित्सा निदान और उपचार सिफारिशें

पारदर्शिता की कमी एआई सिस्टम द्वारा उत्पन्न परिणामों के आधार पर निर्णयों को प्रभावी ढंग से चुनौती देने की संभावना को कमजोर कर सकती है, और इस प्रकार निष्पक्ष परीक्षण और प्रभावी उपचार के अधिकार का उल्लंघन कर सकती है।

— यूनेस्को

दूसरे शब्दों में, यदि उपयोगकर्ता या नियामक यह समझ नहीं पाते कि एआई निर्णय कैसे ले रहा है, तो किसी को भी गलतियों या पूर्वाग्रहों के लिए जवाबदेह ठहराना लगभग असंभव हो जाता है।

जवाबदेही का अंतर: कंपनियां "एल्गोरिदम" को दोष देकर जिम्मेदारी से बच सकती हैं, और प्रभावित व्यक्ति बिना किसी उपाय के रह सकते हैं।

इससे निपटने के लिए, विशेषज्ञ व्याख्यात्मक एआई तकनीकों, कठोर ऑडिटिंग, और नियामक आवश्यकताओं की वकालत करते हैं कि एआई निर्णय मानव प्राधिकरण से ट्रेस किए जा सकें।

वास्तव में, वैश्विक नैतिक दिशानिर्देश जोर देते हैं कि एआई सिस्टम के व्यवहार के लिए "हमेशा नैतिक और कानूनी जिम्मेदारी किसी व्यक्ति या संगठन को सौंपना संभव होना चाहिए"। मानव अंततः जवाबदेह रहना चाहिए, और संवेदनशील मामलों में एआई को मानव निर्णय की जगह नहीं बल्कि सहायता करनी चाहिए। अन्यथा, हम एक ऐसी दुनिया बना सकते हैं जहाँ महत्वपूर्ण निर्णय अस्पष्ट मशीनों द्वारा लिए जाते हैं, जो अन्याय का नुस्खा है।

कार्यस्थल में एआई के उपयोग में पारदर्शिता और जवाबदेही की कमी
कार्यस्थल में एआई के उपयोग में पारदर्शिता और जवाबदेही की कमी

शक्ति का संकेंद्रण और असमानता

एआई क्रांति दुनिया भर में समान रूप से नहीं हो रही है – कुछ कंपनियां और देश उन्नत एआई के विकास पर हावी हैं, जो अपने आप में जोखिम लेकर आता है।

अत्याधुनिक एआई मॉडल के लिए विशाल डेटा, प्रतिभा, और कंप्यूटिंग संसाधनों की आवश्यकता होती है जो केवल तकनीकी दिग्गजों (और अच्छी तरह से वित्त पोषित सरकारों) के पास वर्तमान में है।

इसने एक अत्यधिक केंद्रीकृत, एकल, वैश्विक एकीकृत आपूर्ति श्रृंखला बनाई है जो कुछ कंपनियों और देशों को लाभ पहुंचाती है।

— विश्व आर्थिक मंच

डेटा एकाधिकार

कुछ संस्थाओं द्वारा नियंत्रित विशाल डेटा सेट

कंप्यूटिंग संसाधन

महंगे अवसंरचना जो केवल तकनीकी दिग्गजों के लिए सुलभ है

प्रतिभा का संकेंद्रण

शीर्ष एआई शोधकर्ता कुछ संगठनों में केंद्रित हैं

एआई शक्ति का यह संकेंद्रण एआई तकनीकों पर मोनोपोलिस्टिक नियंत्रण में बदल सकता है, जो प्रतिस्पर्धा और उपभोक्ता विकल्पों को सीमित करता है। यह खतरा भी बढ़ाता है कि उन कुछ कंपनियों या देशों की प्राथमिकताएं एआई को ऐसे तरीकों से आकार दें जो व्यापक सार्वजनिक हितों का ध्यान न रखें

संयुक्त राष्ट्र चेतावनी: खतरा है कि एआई तकनीक को लोगों पर बिना उनकी सहमति के लागू किया जा सकता है, जब विकास कुछ शक्तिशाली हाथों तक सीमित हो।

यह असंतुलन वैश्विक असमानताओं को बढ़ा सकता है: धनी राष्ट्र और फर्म एआई का लाभ उठाकर आगे बढ़ते हैं, जबकि गरीब समुदाय नवीनतम उपकरणों तक पहुंच के बिना और नौकरी हानि के साथ संघर्ष करते हैं।

इसके अलावा, एक केंद्रीकृत एआई उद्योग नवाचार को दबा सकता है (यदि नए प्रवेशकर्ता संसाधनों में प्रतिस्पर्धा नहीं कर सकते) और सुरक्षा जोखिम पैदा कर सकता है (यदि महत्वपूर्ण एआई अवसंरचना केवल कुछ संस्थाओं के नियंत्रण में हो, तो यह विफलता या हेरफेर का एकल बिंदु बन जाता है)।

इस जोखिम को संबोधित करने के लिए अंतरराष्ट्रीय सहयोग और संभवतः नए नियमों की आवश्यकता है ताकि एआई विकास लोकतांत्रिक हो सके – उदाहरण के लिए, खुले अनुसंधान का समर्थन करना, डेटा और कंप्यूटिंग तक निष्पक्ष पहुंच सुनिश्चित करना, और "एआई गेटकीपर्स" द्वारा दुरुपयोग को रोकने के लिए नीतियां बनाना (जैसे यूरोपीय संघ का प्रस्तावित एआई अधिनियम)। एक अधिक समावेशी एआई परिदृश्य यह सुनिश्चित करेगा कि एआई के लाभ वैश्विक स्तर पर साझा हों, न कि तकनीकी धनी और गरीब के बीच अंतर बढ़ाएं।

शक्ति का संकेंद्रण और असमानता
शक्ति का संकेंद्रण और असमानता

एआई का पर्यावरणीय प्रभाव

एआई के जोखिमों की चर्चा में अक्सर इसका पर्यावरणीय पदचिह्न अनदेखा किया जाता है। एआई विकास, विशेष रूप से बड़े मशीन लर्निंग मॉडल का प्रशिक्षण, विशाल मात्रा में बिजली और कंप्यूटिंग शक्ति का उपभोग करता है।

डेटा केंद्र हजारों बिजली-खपत करने वाले सर्वरों से भरे होते हैं जो उस डेटा को संसाधित करते हैं जिससे एआई सिस्टम सीखते हैं। इसका अर्थ है कि एआई अप्रत्यक्ष रूप से कार्बन उत्सर्जन और जलवायु परिवर्तन में योगदान कर सकता है।

चौंकाने वाले आंकड़े: एक हालिया संयुक्त राष्ट्र एजेंसी रिपोर्ट में पाया गया कि चार प्रमुख एआई-केंद्रित तकनीकी कंपनियों के अप्रत्यक्ष कार्बन उत्सर्जन 2020 से 2023 के बीच औसतन 150% बढ़े, मुख्य रूप से एआई डेटा केंद्रों की ऊर्जा मांग के कारण।
कार्बन उत्सर्जन वृद्धि (2020-2023) 150%

जैसे-जैसे एआई में निवेश बढ़ता है, एआई मॉडल चलाने से होने वाला उत्सर्जन तेजी से बढ़ने की उम्मीद है – रिपोर्ट ने अनुमान लगाया कि शीर्ष एआई सिस्टम संयुक्त रूप से प्रति वर्ष 100 मिलियन टन से अधिक CO₂ उत्सर्जित कर सकते हैं, जो ऊर्जा अवसंरचना पर महत्वपूर्ण दबाव डालता है।

तुलना के लिए, एआई संचालित डेटा केंद्र बिजली की खपत को "कुल बिजली खपत की वृद्धि की तुलना में चार गुना तेज़ी से बढ़ा रहे हैं"

ऊर्जा खपत

एआई मॉडल के प्रशिक्षण और संचालन के लिए विशाल बिजली उपयोग

जल उपयोग

डेटा केंद्रों को ठंडा करने के लिए महत्वपूर्ण जल खपत

इलेक्ट्रॉनिक कचरा

हार्डवेयर उन्नयन से इलेक्ट्रॉनिक कचरा उत्पन्न होता है

कार्बन उत्सर्जन के अलावा, एआई ठंडा करने के लिए पानी की खपत भी कर सकता है और हार्डवेयर के तेजी से उन्नयन के कारण इलेक्ट्रॉनिक कचरा उत्पन्न कर सकता है। यदि इसे नियंत्रित न किया गया, तो एआई का पर्यावरणीय प्रभाव वैश्विक स्थिरता प्रयासों को कमजोर कर सकता है।

यह जोखिम एआई को अधिक ऊर्जा-कुशल बनाने और स्वच्छ ऊर्जा स्रोतों का उपयोग करने की मांग करता है। शोधकर्ता ऊर्जा उपयोग कम करने के लिए ग्रीन एआई तकनीक विकसित कर रहे हैं, और कुछ कंपनियों ने एआई के कार्बन लागत को ऑफसेट करने का वचन दिया है। फिर भी, यह एक गंभीर चिंता बनी हुई है कि एआई की दौड़ का भारी पर्यावरणीय मूल्य हो सकता है। तकनीकी प्रगति और पारिस्थितिक जिम्मेदारी के बीच संतुलन बनाना एक और चुनौती है जिसे समाज को एआई के व्यापक एकीकरण के साथ नेविगेट करना होगा।

एआई का पर्यावरणीय प्रभाव
एआई का पर्यावरणीय प्रभाव

अस्तित्वगत और दीर्घकालिक जोखिम

तत्काल जोखिमों से परे, कुछ विशेषज्ञ एआई से अधिक सैद्धांतिक, दीर्घकालिक जोखिमों की चेतावनी देते हैं – जिसमें एक उन्नत एआई की संभावना शामिल है जो मानव नियंत्रण से बाहर हो जाए। जबकि आज के एआई सिस्टम अपनी क्षमताओं में सीमित हैं, शोधकर्ता अधिक सामान्य एआई की दिशा में सक्रिय रूप से काम कर रहे हैं जो कई क्षेत्रों में मनुष्यों से बेहतर प्रदर्शन कर सकता है।

यह जटिल प्रश्न उठाता है: यदि कोई एआई अत्यधिक बुद्धिमान या स्वायत्त हो जाता है, क्या वह ऐसे तरीके से कार्य कर सकता है जो मानव अस्तित्व के लिए खतरा हो? हालांकि यह विज्ञान कथा जैसा लगता है, तकनीकी समुदाय के प्रमुख व्यक्तियों ने "रोगी एआई" परिदृश्यों के बारे में चिंता व्यक्त की है, और सरकारें इस चर्चा को गंभीरता से ले रही हैं।

सरकारी प्रतिक्रिया: 2023 में, यूके ने सीमा पार एआई जोखिमों को संबोधित करने के लिए एक वैश्विक एआई सुरक्षा सम्मेलन की मेजबानी की, जो दीर्घकालिक एआई सुरक्षा के प्रति गंभीर संस्थागत चिंता को दर्शाता है।

विशेषज्ञों के बीच एआई पर मानव नियंत्रण खोने के जोखिम को लेकर विभिन्न मत हैं, जो विनाशकारी परिणामों का कारण बन सकता है।

— अंतरराष्ट्रीय एआई सुरक्षा रिपोर्ट

वैज्ञानिक सहमति समान नहीं है – कुछ मानते हैं कि सुपर-बुद्धिमान एआई दशकों दूर है या इसे मानव मूल्यों के अनुरूप रखा जा सकता है, जबकि अन्य विनाशकारी परिणामों की एक छोटी लेकिन गैर-शून्य संभावना देखते हैं।

संभावित अस्तित्वगत जोखिम परिदृश्य

  • मानव मूल्यों से असंगत लक्ष्यों का पीछा करने वाला एआई
  • तेज, अनियंत्रित एआई क्षमता विकास
  • महत्वपूर्ण निर्णय लेने में मानव एजेंसी का नुकसान
  • हानिकारक उद्देश्यों के लिए एआई सिस्टम का अनुकूलन

दीर्घकालिक सुरक्षा उपाय

  • एआई संरेखण अनुसंधान जो संगत लक्ष्य सुनिश्चित करता है
  • उच्च जोखिम वाले एआई अनुसंधान पर अंतरराष्ट्रीय समझौते
  • जैसे-जैसे एआई सक्षम होता है, मानव निगरानी बनाए रखना
  • वैश्विक एआई शासन ढांचे की स्थापना

मूल रूप से, यह स्वीकार किया जाता है कि एआई से अस्तित्वगत जोखिम, हालांकि दूरस्थ हो, पूरी तरह से खारिज नहीं किया जा सकता। ऐसा परिणाम एक एआई हो सकता है जो अपने लक्ष्यों को मानव कल्याण के नुकसान पर पूरा करता है (क्लासिक उदाहरण एक ऐसा एआई है जो यदि गलत प्रोग्राम किया गया तो सामान्य ज्ञान या नैतिक प्रतिबंधों के बिना बड़े पैमाने पर हानिकारक कार्य कर सकता है)।

हालांकि आज कोई भी एआई इतनी एजेंसी नहीं रखता, एआई प्रगति की गति तेज़ और अप्रत्याशित है, जो स्वयं एक जोखिम कारक है।

दीर्घकालिक जोखिमों के लिए तैयारी का मतलब है एआई संरेखण अनुसंधान में निवेश करना (यह सुनिश्चित करना कि एआई लक्ष्य मानव मूल्यों के अनुरूप रहें), उच्च जोखिम वाले एआई अनुसंधान पर अंतरराष्ट्रीय समझौते स्थापित करना (जैसे परमाणु या जैविक हथियारों पर संधि), और जैसे-जैसे एआई सिस्टम अधिक सक्षम होते हैं, मानव निगरानी बनाए रखना।

एआई का भविष्य विशाल संभावनाएं रखता है, लेकिन साथ ही अनिश्चितता भी – और विवेक यह निर्देशित करता है कि हम अपने दीर्घकालिक योजना में कम संभावना वाले, उच्च प्रभाव वाले जोखिमों पर भी विचार करें।

एआई में अस्तित्वगत और दीर्घकालिक जोखिम
एआई में अस्तित्वगत और दीर्घकालिक जोखिम

एआई के भविष्य को जिम्मेदारी से नेविगेट करना

एआई की तुलना अक्सर एक शक्तिशाली इंजन से की जाती है जो मानवता को आगे बढ़ा सकता है – लेकिन बिना ब्रेक और स्टीयरिंग के, वह इंजन रास्ते से भटक सकता है। जैसा कि हमने देखा, एआई के उपयोग के जोखिम बहुआयामी हैं: तत्काल मुद्दों से लेकर जैसे पूर्वाग्रहपूर्ण एल्गोरिदम, नकली समाचार, गोपनीयता का उल्लंघन, और नौकरी में उथल-पुथल, व्यापक सामाजिक चुनौतियों तक जैसे सुरक्षा खतरे, "ब्लैक बॉक्स" निर्णय, बड़ी तकनीकी कंपनियों का एकाधिकार, पर्यावरणीय दबाव, और यहां तक कि सुपर-बुद्धिमान एआई के नियंत्रण खोने का दूरस्थ खतरा।

महत्वपूर्ण नोट: ये जोखिम यह नहीं कहते कि हमें एआई विकास रोकना चाहिए; बल्कि, वे जिम्मेदार एआई शासन और नैतिक प्रथाओं की तत्काल आवश्यकता को उजागर करते हैं।

सरकारें, अंतरराष्ट्रीय संगठन, उद्योग नेता, और शोधकर्ता इन चिंताओं को संबोधित करने के लिए बढ़ती साझेदारी कर रहे हैं – उदाहरण के लिए, निम्नलिखित ढांचों के माध्यम से:

  • यू.एस. NIST एआई जोखिम प्रबंधन फ्रेमवर्क (एआई विश्वसनीयता सुधारने के लिए)
  • यूनेस्को की वैश्विक एआई नैतिकता सिफारिश
  • यूरोपीय संघ का एआई अधिनियम

ऐसे प्रयासों का उद्देश्य है एआई के लाभों को अधिकतम करना और इसके नकारात्मक पहलुओं को कम करना, यह सुनिश्चित करते हुए कि एआई मानवता की सेवा करे न कि इसके विपरीत।

आगे का रास्ता

एआई के जोखिमों को समझना उन्हें प्रबंधित करने का पहला कदम है। सूचित और शामिल रहकर हम इस परिवर्तनकारी तकनीक को सभी के लिए सुरक्षित, निष्पक्ष, और लाभकारी दिशा में ले जाने में मदद कर सकते हैं।

96 लेख
रोज़ी हा Inviai की लेखिका हैं, जो कृत्रिम बुद्धिमत्ता से संबंधित ज्ञान और समाधान साझा करती हैं। व्यवसाय, सामग्री निर्माण और स्वचालन जैसे कई क्षेत्रों में AI के अनुसंधान और अनुप्रयोग के अनुभव के साथ, रोज़ी हा सरल, व्यावहारिक और प्रेरणादायक लेख प्रस्तुत करती हैं। रोज़ी हा का मिशन है कि वे सभी को AI का प्रभावी उपयोग करके उत्पादकता बढ़ाने और रचनात्मक क्षमता का विस्तार करने में मदद करें।
खोजें