कृत्रिम बुद्धिमत्ता (एआई) अब स्मार्टफोन असिस्टेंट्स और सोशल मीडिया फीड्स से लेकर स्वास्थ्य सेवा और परिवहन तक हर जगह समाहित हो चुकी है। ये तकनीकें अभूतपूर्व लाभ लाती हैं, लेकिन इनके साथ महत्वपूर्ण जोखिम और चुनौतियाँ भी जुड़ी हैं।

विशेषज्ञ और वैश्विक संस्थान चेतावनी देते हैं कि उचित नैतिक सीमाओं के बिना, एआई वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहरा सकता है, पर्यावरणीय क्षति में योगदान दे सकता है, मानवाधिकारों को खतरा पहुंचा सकता है, और मौजूदा असमानताओं को बढ़ा सकता है

इस लेख में, आइए INVIAI के साथ एआई के उपयोग के जोखिमों का सभी क्षेत्रों और प्रकारों में – चैटबॉट्स और एल्गोरिदम से लेकर रोबोट तक – आधिकारिक और अंतरराष्ट्रीय स्रोतों से मिली जानकारी के आधार पर विश्लेषण करें।

एआई सिस्टम में पूर्वाग्रह और भेदभाव

एआई का एक प्रमुख जोखिम पूर्वाग्रह और अनुचित भेदभाव का गहरा होना है। एआई मॉडल ऐसे डेटा से सीखते हैं जो ऐतिहासिक पूर्वाग्रहों या असमानताओं को प्रतिबिंबित कर सकता है; परिणामस्वरूप, एआई सिस्टम जाति, लिंग या अन्य विशेषताओं के आधार पर लोगों के साथ भेदभाव कर सकता है, जो अन्याय को बढ़ावा देता है।

उदाहरण के लिए, “गलत काम करने वाला सामान्य प्रयोजन एआई संरक्षित विशेषताओं जैसे जाति, लिंग, संस्कृति, उम्र और विकलांगता के संदर्भ में पक्षपाती निर्णयों के माध्यम से नुकसान पहुंचा सकता है,” एक अंतरराष्ट्रीय एआई सुरक्षा रिपोर्ट के अनुसार।

भर्ती, ऋण देने या पुलिसिंग में उपयोग किए गए पक्षपाती एल्गोरिदम पहले ही कुछ समूहों को अनुचित रूप से नुकसान पहुंचाने वाले असमान परिणामों का कारण बन चुके हैं। यूनेस्को जैसे वैश्विक निकाय चेतावनी देते हैं कि बिना निष्पक्षता उपायों के, एआई जोखिम में है कि वह “वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहराएगा, विभाजन को बढ़ावा देगा और मौलिक मानवाधिकारों और स्वतंत्रताओं को खतरे में डालेगा।” एआई सिस्टम को विविध, प्रतिनिधि डेटा पर प्रशिक्षित करना और पूर्वाग्रह के लिए ऑडिट करना स्वचालित भेदभाव को रोकने के लिए आवश्यक है।

एआई सिस्टम में पूर्वाग्रह और भेदभाव

गलत सूचना और डीपफेक खतरे

एआई की अत्यंत यथार्थवादी टेक्स्ट, छवियाँ और वीडियो बनाने की क्षमता ने गलत सूचना के प्रकोप का डर पैदा कर दिया है। जनरेटिव एआई विश्वसनीय नकली समाचार लेख, झूठी छवियाँ या डीपफेक वीडियो बना सकता है जिन्हें वास्तविकता से अलग करना मुश्किल होता है।

विश्व आर्थिक मंच की ग्लोबल रिस्क रिपोर्ट 2024 में “मैनिपुलेटेड और फर्जी जानकारी” को सबसे गंभीर अल्पकालिक वैश्विक जोखिम के रूप में पहचाना गया है, जिसमें कहा गया है कि एआई “मैनिपुलेटेड और विकृत जानकारी को बढ़ावा दे रहा है जो समाजों को अस्थिर कर सकता है।”

वास्तव में, एआई द्वारा उत्पन्न गलत सूचना और भ्रामक सूचना लोकतांत्रिक प्रक्रिया के लिए “अब तक की सबसे बड़ी चुनौतियों” में से एक है – खासकर जब आने वाले चुनावों में अरबों लोग मतदान करने वाले हैं। डीपफेक वीडियो और एआई-क्लोन की गई आवाज़ जैसी सिंथेटिक मीडिया का उपयोग प्रचार फैलाने, सार्वजनिक हस्तियों की नकल करने या धोखाधड़ी करने के लिए किया जा सकता है।

अधिकारी चेतावनी देते हैं कि दुष्ट तत्व बड़े पैमाने पर गलत सूचना अभियानों के लिए एआई का उपयोग कर सकते हैं, जिससे सोशल नेटवर्क्स को नकली सामग्री से भरना और अराजकता फैलाना आसान हो जाता है। जोखिम एक ऐसा निराशाजनक सूचना माहौल है जहाँ नागरिक जो देखते या सुनते हैं उस पर भरोसा नहीं कर पाते, जिससे सार्वजनिक संवाद और लोकतंत्र कमजोर होता है।

एआई में गलत सूचना और डीपफेक खतरे

गोपनीयता और व्यापक निगरानी के खतरे

एआई के व्यापक उपयोग से गंभीर गोपनीयता चिंताएँ उत्पन्न होती हैं। एआई सिस्टम प्रभावी ढंग से काम करने के लिए अक्सर हमारे चेहरे, आवाज़, खरीदारी की आदतों और स्थान जैसी बड़ी मात्रा में व्यक्तिगत डेटा की आवश्यकता होती है। बिना मजबूत सुरक्षा उपायों के, इस डेटा का दुरुपयोग या शोषण हो सकता है।

उदाहरण के लिए, चेहरे की पहचान और पूर्वानुमान एल्गोरिदम व्यापक निगरानी को सक्षम कर सकते हैं, जो बिना सहमति के व्यक्तियों की हर गतिविधि को ट्रैक कर सकते हैं या उनके व्यवहार को रेट कर सकते हैं। यूनेस्को की वैश्विक एआई नैतिकता सिफारिश स्पष्ट रूप से चेतावनी देती है कि “एआई सिस्टम का सामाजिक स्कोरिंग या व्यापक निगरानी के लिए उपयोग नहीं किया जाना चाहिए।” ऐसे उपयोग व्यापक रूप से अस्वीकार्य जोखिम माने जाते हैं।

इसके अलावा, एआई-चालित व्यक्तिगत डेटा का विश्लेषण हमारे जीवन के गहरे पहलुओं को उजागर कर सकता है, जैसे स्वास्थ्य स्थिति या राजनीतिक विश्वास, जो गोपनीयता के अधिकार के लिए खतरा है। डेटा संरक्षण एजेंसियां जोर देती हैं कि गोपनीयता “मानव गरिमा, स्वायत्तता और एजेंसी की सुरक्षा के लिए आवश्यक एक अधिकार है” जिसे एआई सिस्टम के पूरे जीवन चक्र में सम्मानित किया जाना चाहिए।

यदि एआई विकास गोपनीयता नियमों से आगे निकल जाता है, तो व्यक्ति अपनी जानकारी पर नियंत्रण खो सकते हैं। समाज को यह सुनिश्चित करना चाहिए कि मजबूत डेटा शासन, सहमति तंत्र और गोपनीयता-संरक्षण तकनीकें मौजूद हों ताकि एआई तकनीकें अनियंत्रित निगरानी के उपकरण न बनें।

गोपनीयता और व्यापक निगरानी के खतरे

सुरक्षा विफलताएँ और अनचाहा नुकसान

जहाँ एआई निर्णयों और भौतिक कार्यों को अतिमानवीय दक्षता से स्वचालित कर सकता है, वहीं यह अनपेक्षित तरीकों से विफल भी हो सकता है, जिससे वास्तविक दुनिया में नुकसान हो सकता है। हम एआई को अधिक से अधिक सुरक्षा-संवेदनशील जिम्मेदारियाँ सौंपते हैं – जैसे कार चलाना, रोगियों का निदान करना, या पावर ग्रिड का प्रबंधन – लेकिन ये सिस्टम अपूर्ण हैं।

गलतियाँ, दोषपूर्ण प्रशिक्षण डेटा, या अप्रत्याशित परिस्थितियाँ एआई को खतरनाक गलतियाँ करने पर मजबूर कर सकती हैं। एक सेल्फ-ड्राइविंग कार का एआई पैदल यात्री को गलत पहचान सकता है, या एक चिकित्सा एआई गलत उपचार की सलाह दे सकता है, जिसके परिणाम घातक हो सकते हैं।

इस बात को समझते हुए, अंतरराष्ट्रीय दिशानिर्देश जोर देते हैं कि एआई से होने वाले अनचाहे नुकसान और सुरक्षा जोखिमों की पूर्व-भविष्यवाणी और रोकथाम होनी चाहिए: “एआई सिस्टम के जीवन चक्र के दौरान अनचाहे नुकसान (सुरक्षा जोखिम) और हमलों के प्रति कमजोरियां (सुरक्षा जोखिम) से बचा जाना चाहिए और उनका समाधान किया जाना चाहिए ताकि मानव, पर्यावरण और पारिस्थितिकी तंत्र की सुरक्षा सुनिश्चित हो सके।”

दूसरे शब्दों में, एआई सिस्टम का कठोर परीक्षण, निगरानी और फेल-सेफ के साथ निर्माण आवश्यक है ताकि खराबी की संभावना न्यूनतम हो। एआई पर अत्यधिक निर्भरता भी जोखिम भरी हो सकती है – यदि मनुष्य स्वचालित निर्णयों पर अंधविश्वास कर लेते हैं, तो वे समय पर हस्तक्षेप नहीं कर पाएंगे जब कुछ गलत हो।

इसलिए मानव पर्यवेक्षण सुनिश्चित करना अत्यंत महत्वपूर्ण है। उच्च जोखिम वाले उपयोगों (जैसे स्वास्थ्य सेवा या परिवहन) में अंतिम निर्णय मानव निर्णय पर निर्भर होना चाहिए, और जैसा कि यूनेस्को बताता है, “जीवन और मृत्यु के निर्णय एआई सिस्टम को नहीं सौंपे जाने चाहिए।” एआई में सुरक्षा और विश्वसनीयता बनाए रखना एक सतत चुनौती है, जिसके लिए सावधानीपूर्वक डिजाइन और जिम्मेदारी की संस्कृति आवश्यक है।

एआई में सुरक्षा विफलताएँ और अनचाहा नुकसान

नौकरी विस्थापन और आर्थिक व्यवधान

एआई का अर्थव्यवस्था पर परिवर्तनकारी प्रभाव दोधारी तलवार की तरह है। एक ओर, एआई उत्पादकता बढ़ा सकता है और पूरी नई उद्योगों का सृजन कर सकता है; दूसरी ओर, यह स्वचालन के माध्यम से लाखों कर्मचारियों को विस्थापित करने का खतरा भी रखता है।

कई नौकरियाँ – विशेषकर वे जो नियमित, दोहराए जाने वाले कार्यों या आसानी से विश्लेषण किए जाने वाले डेटा से जुड़ी हैं – एआई एल्गोरिदम और रोबोट द्वारा अधिग्रहित होने के लिए संवेदनशील हैं। वैश्विक पूर्वानुमान गंभीर हैं: उदाहरण के लिए, विश्व आर्थिक मंच का अनुमान है कि “2030 तक 92 मिलियन नौकरियाँ एआई और संबंधित तकनीकों के कारण विस्थापित हो सकती हैं।”

हालांकि अर्थव्यवस्था नई भूमिकाएँ भी बना सकती है (संभावित रूप से लंबे समय में खोई हुई नौकरियों से अधिक), संक्रमण कई लोगों के लिए कठिन होगा। प्राप्त की गई नौकरियाँ अक्सर अलग, अधिक उन्नत कौशल की मांग करती हैं या कुछ तकनीकी केंद्रों में केंद्रित होती हैं, जिसका अर्थ है कि कई विस्थापित कर्मचारी नई जगह बनाने में संघर्ष कर सकते हैं।

यह कौशलों के बीच असंगति जो कर्मचारियों के पास हैं और नई एआई-चालित भूमिकाओं की मांग करती हैं उच्च बेरोजगारी और असमानता को जन्म दे सकती है यदि इसे संबोधित न किया जाए। वास्तव में, नीति निर्माता और शोधकर्ता चेतावनी देते हैं कि तेज़ एआई प्रगति “श्रम बाजार में व्यवधान और आर्थिक शक्ति की असमानताएं” ला सकती है।

कुछ समूहों को अधिक प्रभावित किया जा सकता है – उदाहरण के लिए, कुछ अध्ययन बताते हैं कि महिलाओं या विकासशील देशों के कर्मचारियों के पास उच्च जोखिम वाली नौकरियों का बड़ा हिस्सा है। सक्रिय उपायों (जैसे पुनः प्रशिक्षण कार्यक्रम, एआई कौशल शिक्षा, और सामाजिक सुरक्षा जाल) के बिना, एआई सामाजिक-आर्थिक अंतराल को बढ़ा सकता है, एक ऐसी एआई-चालित अर्थव्यवस्था बनाते हुए जहाँ तकनीक के मालिक ही अधिकांश लाभ उठाते हैं।

एआई के प्रभाव के लिए कार्यबल की तैयारी आवश्यक है ताकि स्वचालन के लाभ व्यापक रूप से साझा किए जा सकें और व्यापक नौकरी हानि से सामाजिक अशांति को रोका जा सके।

एआई में नौकरी विस्थापन और आर्थिक व्यवधान

आपराधिक दुरुपयोग, धोखाधड़ी, और सुरक्षा खतरे

एआई एक शक्तिशाली उपकरण है जिसे उतनी ही आसानी से दुष्ट उद्देश्यों के लिए इस्तेमाल किया जा सकता है जितना कि नेक उद्देश्यों के लिए। साइबर अपराधी और अन्य दुष्ट तत्व पहले ही अपने हमलों को बढ़ाने के लिए एआई का उपयोग कर रहे हैं।

उदाहरण के लिए, एआई अत्यंत व्यक्तिगत फ़िशिंग ईमेल या वॉइस मैसेज (किसी की आवाज़ की नकल करके) बना सकता है ताकि लोगों को संवेदनशील जानकारी साझा करने या पैसे भेजने के लिए धोखा दिया जा सके। यह बड़े पैमाने पर सॉफ़्टवेयर कमजोरियों को खोजने या अनुकूलित मैलवेयर विकसित करने के लिए हैकिंग को स्वचालित करने में भी सक्षम है।

Center for AI Safety ने एआई के दुष्ट उपयोग को एक प्रमुख चिंता के रूप में पहचाना है, जिसमें अपराधियों द्वारा बड़े पैमाने पर धोखाधड़ी और साइबर हमलों के लिए एआई सिस्टम के उपयोग जैसे परिदृश्य शामिल हैं। वास्तव में, यूके सरकार द्वारा कमीशन की गई एक रिपोर्ट ने स्पष्ट रूप से चेतावनी दी है कि “दुष्ट तत्व बड़े पैमाने पर गलत सूचना, प्रभाव अभियान, धोखाधड़ी और घोटालों के लिए एआई का उपयोग कर सकते हैं।”

एआई की गति, पैमाना और परिष्कार पारंपरिक सुरक्षा उपायों को मात दे सकते हैं – कल्पना करें कि एक ही दिन में हजारों एआई-जनित घोटाला कॉल या डीपफेक वीडियो किसी कंपनी की सुरक्षा को निशाना बना रहे हों।

वित्तीय अपराधों के अलावा, एआई का उपयोग पहचान चोरी, उत्पीड़न, या हानिकारक सामग्री (जैसे गैर-सहमति डीपफेक पोर्नोग्राफी या चरमपंथी समूहों के लिए प्रचार) बनाने में भी किया जा सकता है। जैसे-जैसे एआई उपकरण अधिक सुलभ होते जा रहे हैं, इन दुष्ट गतिविधियों को अंजाम देने की बाधा कम हो रही है, जिससे एआई-संवर्धित अपराधों में वृद्धि हो सकती है।

इसलिए साइबर सुरक्षा और कानून प्रवर्तन के लिए नए दृष्टिकोण आवश्यक हैं, जैसे डीपफेक या असामान्य व्यवहार का पता लगाने वाले एआई सिस्टम और अपराधियों को जवाबदेह ठहराने के लिए अद्यतन कानूनी ढांचे। मूल रूप से, हमें यह मान लेना चाहिए कि जो भी क्षमता एआई लाभार्थियों को प्रदान करता है, वह अपराधियों को भी प्रदान कर सकता है – और उसी के अनुसार तैयारी करनी चाहिए।

एआई में आपराधिक दुरुपयोग, धोखाधड़ी और सुरक्षा खतरे

सैन्यीकरण और स्वायत्त हथियार

शायद एआई का सबसे भयावह जोखिम युद्ध और राष्ट्रीय सुरक्षा के संदर्भ में उभरता है। एआई तेजी से सैन्य प्रणालियों में एकीकृत हो रहा है, जिससे स्वायत्त हथियारों (“किलर रोबोट”) और युद्ध में एआई-चालित निर्णय लेने की संभावना बढ़ रही है।

ये तकनीकें किसी भी मानव से तेज़ प्रतिक्रिया कर सकती हैं, लेकिन घातक बल के उपयोग से मानव नियंत्रण हटाना खतरनाक है। जोखिम है कि एआई-नियंत्रित हथियार गलत लक्ष्य चुन सकता है या अप्रत्याशित तरीकों से संघर्ष को बढ़ा सकता है। अंतरराष्ट्रीय पर्यवेक्षक चेतावनी देते हैं कि “सैन्य उपयोग के लिए एआई का हथियारबंद होना” एक बढ़ता हुआ खतरा है।

यदि राष्ट्र अपनी शस्त्रागारों को बुद्धिमान हथियारों से लैस करने की दौड़ में लग जाते हैं, तो यह एक अस्थिर हथियार दौड़ को जन्म दे सकता है। इसके अलावा, एआई का उपयोग साइबर युद्ध में महत्वपूर्ण अवसंरचना पर स्वायत्त हमले करने या प्रचार फैलाने के लिए किया जा सकता है, जिससे शांति और संघर्ष के बीच की रेखा धुंधली हो जाती है।

संयुक्त राष्ट्र ने चिंता व्यक्त की है कि युद्ध में एआई का विकास, यदि कुछ के हाथों में केंद्रित हो, तो “लोगों की सहमति के बिना उन पर थोप दिया जा सकता है कि इसका उपयोग कैसे किया जाए,” जिससे वैश्विक सुरक्षा और नैतिकता कमजोर हो सकती है।

स्वायत्त हथियार प्रणालियाँ कानूनी और नैतिक दुविधाएँ भी प्रस्तुत करती हैं – यदि कोई एआई ड्रोन गलती से नागरिकों को मार देता है तो कौन जिम्मेदार होगा? ऐसे सिस्टम अंतरराष्ट्रीय मानवीय कानून का पालन कैसे करते हैं?

इन अनुत्तरित प्रश्नों ने कुछ एआई-सक्षम हथियारों पर प्रतिबंध या कड़ी विनियमन की मांग को जन्म दिया है। किसी भी ऐसे एआई पर मानव पर्यवेक्षण सुनिश्चित करना जो जीवन-मृत्यु निर्णय ले सकता है, व्यापक रूप से सर्वोपरि माना जाता है। इसके बिना, जोखिम केवल युद्धक्षेत्र में दुखद गलतियाँ नहीं बल्कि युद्ध में मानव जिम्मेदारी का क्षरण भी है।

एआई में सैन्यीकरण और स्वायत्त हथियार

पारदर्शिता और जवाबदेही की कमी

आज के अधिकांश उन्नत एआई सिस्टम “ब्लैक बॉक्स” की तरह काम करते हैं – उनकी आंतरिक तर्क प्रणाली अक्सर उनके निर्माताओं के लिए भी अस्पष्ट होती है। इस पारदर्शिता की कमी से यह जोखिम पैदा होता है कि एआई निर्णयों को समझाया या चुनौती नहीं दिया जा सकता, जो न्याय, वित्त या स्वास्थ्य सेवा जैसे क्षेत्रों में गंभीर समस्या है जहाँ व्याख्यात्मकता कानूनी या नैतिक आवश्यकता हो सकती है।

यदि कोई एआई किसी को ऋण देने से मना करता है, बीमारी का निदान करता है, या जेल से पैरोल पर कौन जाएगा यह तय करता है, तो हम स्वाभाविक रूप से जानना चाहते हैं क्यों। कुछ एआई मॉडलों (विशेषकर जटिल न्यूरल नेटवर्क) के साथ स्पष्ट तर्क प्रदान करना कठिन होता है।

“पारदर्शिता की कमी” विश्वास को कमजोर कर सकती है और यूनेस्को के अनुसार, “एआई सिस्टम द्वारा उत्पन्न परिणामों के आधार पर निर्णयों को प्रभावी ढंग से चुनौती देने की संभावना को भी कमजोर कर सकती है, और इस प्रकार निष्पक्ष परीक्षण और प्रभावी उपचार के अधिकार का उल्लंघन कर सकती है।”

दूसरे शब्दों में, यदि न उपयोगकर्ता और न ही नियामक समझ पाते हैं कि एआई निर्णय कैसे ले रहा है, तो किसी को भी गलतियों या पूर्वाग्रहों के लिए जवाबदेह ठहराना लगभग असंभव हो जाता है।

यह जवाबदेही का अंतर एक बड़ा जोखिम है: कंपनियां “एल्गोरिदम” को दोष देकर जिम्मेदारी से बच सकती हैं, और प्रभावित व्यक्ति बिना किसी उपाय के रह सकते हैं। इसे रोकने के लिए विशेषज्ञ व्याख्यात्मक एआई तकनीकों, कठोर ऑडिटिंग, और नियामक आवश्यकताओं की वकालत करते हैं कि एआई निर्णय मानव प्राधिकरण से जुड़े हों।

वास्तव में, वैश्विक नैतिक दिशानिर्देश जोर देते हैं कि एआई सिस्टम के व्यवहार के लिए “हमेशा नैतिक और कानूनी जिम्मेदारी किसी व्यक्ति या संगठन को सौंपना संभव होना चाहिए।” मानव अंततः जिम्मेदार रहना चाहिए, और संवेदनशील मामलों में एआई को मानव निर्णय की जगह लेने के बजाय सहायता करनी चाहिए। अन्यथा, हम एक ऐसी दुनिया बना सकते हैं जहाँ महत्वपूर्ण निर्णय अस्पष्ट मशीनों द्वारा लिए जाते हैं, जो अन्याय का कारण बनता है।

कार्यस्थल में एआई के उपयोग में पारदर्शिता और जवाबदेही की कमी

शक्ति का संकेंद्रण और असमानता

एआई क्रांति दुनिया भर में समान रूप से नहीं हो रही है – कुछ बड़ी कंपनियां और देश उन्नत एआई के विकास पर हावी हैं, जो अपने आप में जोखिम पैदा करता है।

आधुनिक एआई मॉडल के लिए विशाल डेटा, प्रतिभा और कंप्यूटिंग संसाधनों की आवश्यकता होती है, जो वर्तमान में केवल तकनीकी दिग्गजों (और अच्छी तरह से वित्त पोषित सरकारों) के पास हैं। इससे एक “अत्यंत केंद्रीकृत, एकल, वैश्विक एकीकृत आपूर्ति श्रृंखला जो कुछ कंपनियों और देशों को प्राथमिकता देती है,” विश्व आर्थिक मंच के अनुसार, बन गई है।

एआई शक्ति का यह संकेंद्रण एआई तकनीकों पर एकाधिकार नियंत्रण में बदल सकता है, जिससे प्रतिस्पर्धा और उपभोक्ता विकल्प सीमित हो सकते हैं। यह खतरा भी बढ़ाता है कि उन कुछ कंपनियों या देशों की प्राथमिकताएँ एआई को इस तरह आकार देंगी जो व्यापक सार्वजनिक हितों का ध्यान नहीं रखतीं।

संयुक्त राष्ट्र ने नोट किया है कि “खतरा है कि [एआई] तकनीक लोगों पर थोप दी जा सकती है बिना यह जाने कि इसका उपयोग कैसे किया जाएगा,” जब विकास कुछ शक्तिशाली हाथों में सीमित हो।

यह असंतुलन वैश्विक असमानताओं को बढ़ा सकता है: धनी राष्ट्र और कंपनियां एआई का लाभ उठाकर आगे बढ़ती हैं, जबकि गरीब समुदाय नवीनतम उपकरणों तक पहुंच के बिना और नौकरी खोने के बावजूद एआई के लाभों से वंचित रहते हैं। इसके अलावा, एक केंद्रीकृत एआई उद्योग नवाचार को दबा सकता है (यदि नए खिलाड़ी संसाधनों में प्रतिस्पर्धा नहीं कर पाते) और सुरक्षा जोखिम पैदा कर सकता है (यदि महत्वपूर्ण एआई अवसंरचना कुछ ही संस्थाओं के नियंत्रण में हो, तो वह एकल विफलता या हेरफेर का बिंदु बन जाती है)।

इस जोखिम को संबोधित करने के लिए अंतरराष्ट्रीय सहयोग और संभवतः नए नियमों की आवश्यकता है ताकि एआई विकास को लोकतांत्रिक बनाया जा सके – उदाहरण के लिए, खुला शोध समर्थन करना, डेटा और कंप्यूटिंग संसाधनों तक निष्पक्ष पहुंच सुनिश्चित करना, और नीतियाँ बनाना (जैसे यूरोपीय संघ का प्रस्तावित एआई अधिनियम) जो “एआई गेटकीपर्स” द्वारा दुरुपयोग को रोकें। एक अधिक समावेशी एआई परिदृश्य यह सुनिश्चित करेगा कि एआई के लाभ वैश्विक स्तर पर साझा हों, न कि तकनीकी धनी और गरीब के बीच अंतर को बढ़ाएं।

शक्ति का संकेंद्रण और असमानता

एआई का पर्यावरणीय प्रभाव

एआई के जोखिमों की चर्चा में अक्सर इसका पर्यावरणीय पदचिह्न नजरअंदाज कर दिया जाता है। एआई विकास, विशेषकर बड़े मशीन लर्निंग मॉडल का प्रशिक्षण, अत्यधिक बिजली और कंप्यूटिंग शक्ति का उपभोग करता है।

डेटा केंद्रों में हजारों बिजली-खपत करने वाले सर्वर होते हैं जो उस डेटा की प्रक्रिया करते हैं जिससे एआई सिस्टम सीखते हैं। इसका मतलब है कि एआई अप्रत्यक्ष रूप से कार्बन उत्सर्जन और जलवायु परिवर्तन में योगदान दे सकता है।

एक हालिया संयुक्त राष्ट्र एजेंसी की रिपोर्ट में पाया गया कि चार प्रमुख एआई-केंद्रित तकनीकी कंपनियों के अप्रत्यक्ष कार्बन उत्सर्जन में 2020 से 2023 के बीच औसतन 150% की वृद्धि हुई है, जो मुख्य रूप से एआई डेटा केंद्रों की ऊर्जा मांग के कारण है।

जैसे-जैसे एआई में निवेश बढ़ रहा है, एआई मॉडल चलाने से होने वाला उत्सर्जन तेजी से बढ़ने की उम्मीद है – रिपोर्ट ने अनुमान लगाया कि शीर्ष एआई सिस्टम मिलकर प्रति वर्ष 100 मिलियन टन से अधिक CO₂ उत्सर्जित कर सकते हैं, जिससे ऊर्जा अवसंरचना पर भारी दबाव पड़ेगा।

तुलना के लिए, एआई संचालित डेटा केंद्र बिजली की खपत को “कुल बिजली खपत की वृद्धि से चार गुना तेज़ी से बढ़ा रहे हैं।”

कार्बन उत्सर्जन के अलावा, एआई ठंडक के लिए पानी की भी अधिक खपत कर सकता है और हार्डवेयर के तेजी से अपग्रेड होने के कारण इलेक्ट्रॉनिक कचरा उत्पन्न कर सकता है। यदि इसे नियंत्रित न किया गया, तो एआई का पर्यावरणीय प्रभाव वैश्विक स्थिरता प्रयासों को कमजोर कर सकता है।

यह जोखिम एआई को अधिक ऊर्जा-कुशल बनाने और स्वच्छ ऊर्जा स्रोतों का उपयोग करने की आवश्यकता को दर्शाता है। शोधकर्ता ऊर्जा उपयोग कम करने के लिए ग्रीन एआई तकनीक विकसित कर रहे हैं, और कुछ कंपनियों ने एआई के कार्बन लागत को ऑफसेट करने का वादा किया है। फिर भी, यह एक गंभीर चिंता बनी हुई है कि एआई की दौड़ भारी पर्यावरणीय कीमत लेकर आ सकती है। तकनीकी प्रगति और पारिस्थितिक जिम्मेदारी के बीच संतुलन बनाना समाज के लिए एक और चुनौती है क्योंकि हम हर जगह एआई को एकीकृत कर रहे हैं।

एआई का पर्यावरणीय प्रभाव

अस्तित्वगत और दीर्घकालिक जोखिम

तत्कालीन जोखिमों से परे, कुछ विशेषज्ञ एआई से होने वाले अधिक सैद्धांतिक, दीर्घकालिक जोखिमों की चेतावनी देते हैं – जिनमें एक उन्नत एआई का मानव नियंत्रण से बाहर हो जाना शामिल है। आज के एआई सिस्टम सीमित क्षमताओं वाले हैं, लेकिन शोधकर्ता अधिक सामान्य एआई की दिशा में सक्रिय रूप से काम कर रहे हैं जो कई क्षेत्रों में मनुष्यों से बेहतर प्रदर्शन कर सकता है।

यह जटिल प्रश्न उठाता है: यदि कोई एआई अत्यधिक बुद्धिमान या स्वायत्त हो जाता है, क्या वह ऐसे तरीके से कार्य कर सकता है जो मानव अस्तित्व के लिए खतरा हो? यद्यपि यह विज्ञान कथा जैसा लगता है, तकनीकी समुदाय के प्रमुख व्यक्तियों ने “दुष्ट एआई” परिदृश्यों के बारे में चिंता व्यक्त की है, और सरकारें इस चर्चा को गंभीरता से ले रही हैं।

2023 में, यूके ने सीमा पार एआई जोखिमों को संबोधित करने के लिए एक वैश्विक एआई सुरक्षा सम्मेलन की मेजबानी की। वैज्ञानिक सहमति समान नहीं है – कुछ मानते हैं कि सुपर-बुद्धिमान एआई दशकों दूर है या मानव मूल्यों के साथ संरेखित रखा जा सकता है, जबकि अन्य संभावित विनाशकारी परिणामों की एक छोटी लेकिन गैर-शून्य संभावना देखते हैं।

हाल की अंतरराष्ट्रीय एआई सुरक्षा रिपोर्ट ने बताया कि “विशेषज्ञों के बीच इस बात पर मतभेद हैं कि क्या मानवता एआई पर नियंत्रण खो सकती है जिससे विनाशकारी परिणाम हो सकते हैं।”

मूल रूप से, यह स्वीकार किया गया है कि एआई से अस्तित्वगत जोखिम, चाहे वह कितना भी दूर क्यों न हो, पूरी तरह से खारिज नहीं किया जा सकता। ऐसा परिणाम एआई के अपने लक्ष्यों को मानव कल्याण के विपरीत आगे बढ़ाने से हो सकता है (क्लासिक उदाहरण एक ऐसा एआई है जो गलत प्रोग्रामिंग के कारण बड़े पैमाने पर हानिकारक कार्य करता है क्योंकि उसमें सामान्य समझ या नैतिक प्रतिबंध नहीं होते)।

हालांकि आज कोई भी एआई इतनी एजेंसी नहीं रखता, एआई प्रगति की गति तेज़ और अप्रत्याशित है, जो स्वयं एक जोखिम कारक है। दीर्घकालिक जोखिमों के लिए तैयारी का मतलब है एआई संरेखण अनुसंधान में निवेश करना (यह सुनिश्चित करना कि एआई के लक्ष्य मानव मूल्यों के अनुरूप रहें), उच्च जोखिम वाले एआई अनुसंधान पर अंतरराष्ट्रीय समझौते स्थापित करना (जैसे परमाणु या जैविक हथियारों पर संधियाँ), और जैसे-जैसे एआई सिस्टम अधिक सक्षम होते जाएं, मानव पर्यवेक्षण बनाए रखना।

एआई का भविष्य अपार संभावनाओं से भरा है, लेकिन साथ ही अनिश्चितता भी है – और विवेकपूर्णता यह मांग करती है कि हम अपनी दीर्घकालिक योजना में कम संभावना वाले, उच्च प्रभाव वाले जोखिमों पर भी विचार करें।

>>> अधिक जानने के लिए क्लिक करें: व्यक्तियों और व्यवसायों के लिए एआई के लाभ

एआई में अस्तित्वगत और दीर्घकालिक जोखिम


एआई की तुलना अक्सर एक शक्तिशाली इंजन से की जाती है जो मानवता को आगे बढ़ा सकता है – लेकिन बिना ब्रेक और स्टीयरिंग के, वह इंजन रास्ता भटक सकता है। जैसा कि हमने देखा, एआई के उपयोग के जोखिम बहुआयामी हैं: पक्षपाती एल्गोरिदम, नकली समाचार, गोपनीयता का उल्लंघन, और नौकरी में उथल-पुथल जैसे तत्काल मुद्दों से लेकर सुरक्षा खतरों, “ब्लैक बॉक्स” निर्णय लेने, बड़ी तकनीकी कंपनियों के एकाधिकार, पर्यावरणीय दबाव, और यहां तक कि सुपर-बुद्धिमान एआई के नियंत्रण खोने के दूरस्थ खतरे जैसे व्यापक सामाजिक चुनौतियाँ।

ये जोखिम यह नहीं कहते कि हमें एआई विकास रोक देना चाहिए; बल्कि, ये जिम्मेदार एआई शासन और नैतिक प्रथाओं की तत्काल आवश्यकता को रेखांकित करते हैं।

सरकारें, अंतरराष्ट्रीय संगठन, उद्योग नेता, और शोधकर्ता इन चिंताओं को संबोधित करने के लिए बढ़ती साझेदारी कर रहे हैं – उदाहरण के लिए, यूएस NIST के एआई जोखिम प्रबंधन ढांचे (एआई विश्वसनीयता सुधारने के लिए), यूनेस्को की वैश्विक एआई नैतिकता सिफारिश, और यूरोपीय संघ के एआई अधिनियम के माध्यम से।

ऐसे प्रयास एआई के लाभों को अधिकतम करने और इसके नकारात्मक पहलुओं को न्यूनतम करने का लक्ष्य रखते हैं, यह सुनिश्चित करते हुए कि एआई मानवता की सेवा करे न कि इसके विपरीत। अंत में, एआई के जोखिमों को समझना उन्हें प्रबंधित करने का पहला कदम है। सूचित और शामिल रहकर हम इस परिवर्तनकारी तकनीक को सभी के लिए सुरक्षित, निष्पक्ष और लाभकारी दिशा में मार्गदर्शित कर सकते हैं।