कृत्रिम बुद्धिमत्ता (एआई) उन कंप्यूटर सिस्टमों को कहते हैं जो मानव बुद्धिमत्ता की नकल करते हैं – उदाहरण के लिए, ऐसे प्रोग्राम जो छवियों को पहचान सकते हैं, भाषा को समझ सकते हैं, या निर्णय ले सकते हैं। रोज़मर्रा की ज़िंदगी में, एआई स्मार्टफोन के वॉइस असिस्टेंट, सोशल मीडिया पर सिफारिश प्रणाली, और यहां तक कि उन्नत चैटबॉट्स जैसे उपकरणों को संचालित करता है जो टेक्स्ट लिखते हैं।

एआई के पास कई क्षेत्रों में सुधार करने की बड़ी क्षमता है, लेकिन इसके साथ कई चिंताएं भी जुड़ी हैं।

तो, क्या एआई खतरनाक है? यह लेख दोनों पहलुओं की पड़ताल करेगा: एआई के वास्तविक लाभ और विशेषज्ञों द्वारा बताई गई संभावित खतरों को।

एआई के वास्तविक लाभ

छवि: रोबोट और एक व्यक्ति के साथ मिलकर काम करने का एक मित्रवत चित्रण एआई द्वारा मानव सहायता को दर्शाता है। एआई पहले से ही कई उपयोगी अनुप्रयोगों में समाहित है।

उदाहरण के लिए, यूनेस्को बताता है कि एआई ने विश्वभर में “कई अवसर पैदा किए हैं” – जैसे तेज़ चिकित्सा निदान, बेहतर कनेक्टिविटी सोशल मीडिया के माध्यम से, और थकाऊ कार्यों का स्वचालन।

यूरोपीय संघ भी इस बात पर जोर देता है कि “विश्वसनीय एआई कई लाभ ला सकता है” जैसे बेहतर स्वास्थ्य सेवासुरक्षित परिवहन, और औद्योगिक और ऊर्जा उपयोग में अधिक दक्षता. चिकित्सा क्षेत्र में, विश्व स्वास्थ्य संगठन रिपोर्ट करता है कि एआई का उपयोग निदान, दवा विकास और महामारी प्रतिक्रिया में हो रहा है, और देशों से आग्रह करता है कि वे इन नवाचारों को सभी के लिए बढ़ावा दें।

आर्थिक विशेषज्ञ भी एआई के तेजी से फैलाव की तुलना पिछले तकनीकी क्रांतियों से करते हैं।

उदाहरण के लिए, अमेरिकी सरकार इस बात पर जोर देती है कि “एआई में आशा और खतरे दोनों के लिए असाधारण क्षमता है,” जिसका अर्थ है कि हमें इसके शक्ति का उपयोग जलवायु परिवर्तन या रोग जैसी समस्याओं को हल करने के लिए करना चाहिए, साथ ही जोखिमों के प्रति सावधान भी रहना चाहिए।

एआई के मुख्य लाभों में शामिल हैं:

  • बेहतर स्वास्थ्य सेवा: एआई सिस्टम एक्स-रे, एमआरआई और रोगी डेटा को मनुष्यों से तेज़ी से विश्लेषित कर सकते हैं, जिससे बीमारी का जल्दी पता लगाना और व्यक्तिगत उपचार संभव होता है। उदाहरण के लिए, एआई-सहायता प्राप्त इमेजिंग उन ट्यूमर को खोज सकती है जिन्हें डॉक्टर मिस कर सकते हैं।
  • अधिक दक्षता: कारखानों, कार्यालयों और सेवाओं में स्वचालित प्रक्रियाएं उत्पादकता बढ़ाती हैं। जैसा कि यूरोपीय संघ बताता है, एआई-संचालित स्वचालन  “अधिक कुशल निर्माण” और यहां तक कि स्मार्ट ऊर्जा ग्रिड की ओर ले जाता है।
    रोबोट और सॉफ्टवेयर दोहराए जाने वाले कार्यों को संभालते हैं ताकि मनुष्य रचनात्मक या जटिल कार्यों पर ध्यान केंद्रित कर सकें।
  • सुरक्षित परिवहन और सेवाएं: स्व-चालित कार तकनीक और ट्रैफिक प्रबंधन एआई दुर्घटनाओं और जाम को कम करने का लक्ष्य रखते हैं। स्मार्ट एआई आपदा चेतावनी प्रणालियों को बेहतर बना सकता है और लॉजिस्टिक्स को अनुकूलित कर सकता है, जिससे यात्रा और शिपिंग सुरक्षित होती है।
  • वैज्ञानिक और पर्यावरणीय सहायता: शोधकर्ता जलवायु मॉडल और आनुवंशिक डेटा को समझने के लिए एआई का उपयोग करते हैं। यह जलवायु परिवर्तन जैसी बड़ी समस्याओं से निपटने में मदद करता है: यूनेस्को रिपोर्ट करता है कि एआई डिज़ाइन में छोटे बदलाव भी इसकी ऊर्जा खपत को काफी कम कर सकते हैं, जिससे यह जलवायु उपकरण के रूप में अधिक टिकाऊ बनता है।
  • शिक्षा और पहुँच: एआई-संचालित ट्यूटर प्रत्येक छात्र के लिए सीखने को व्यक्तिगत बना सकते हैं, और वॉइस-रिकग्निशन या अनुवाद उपकरण विकलांग लोगों की मदद करते हैं। ब्रिटानिका बताता है कि एआई  “वंचित समूहों को पहुँच प्रदान करके मदद करता है” (जैसे दृष्टिहीनों के लिए पढ़ने वाले सहायक)।

ये उदाहरण दिखाते हैं कि एआई केवल विज्ञान कथा नहीं है – यह आज ही वास्तविक मूल्य प्रदान करता है।

एआई के वास्तविक लाभ

एआई के संभावित जोखिम और खतरे

छवि: “रोबोट” शब्द की स्ट्रीट आर्ट एआई के अज्ञात प्रभावों की चेतावनी देती है। इसके वादे के बावजूद, कई विशेषज्ञ चेतावनी देते हैं कि एआई गलत उपयोग या बिना नियंत्रण के खतरनाक हो सकता है. एक प्रमुख चिंता है पक्षपात और भेदभाव. क्योंकि एआई मौजूदा डेटा से सीखता है, यह मानव पूर्वाग्रहों को अपना सकता है।

यूनेस्को चेतावनी देता है कि बिना कड़े नैतिक नियमों के, एआई “वास्तविक दुनिया के पूर्वाग्रहों और भेदभाव को दोहरा सकता है, विभाजन को बढ़ावा दे सकता है और मौलिक मानव अधिकारों और स्वतंत्रताओं को खतरे में डाल सकता है”. वास्तव में, अध्ययनों ने दिखाया है कि चेहरे की पहचान तकनीक अक्सर महिलाओं या रंगीन लोगों की गलत पहचान करती है, और भर्ती एल्गोरिदम कुछ लिंगों को प्राथमिकता दे सकते हैं।

ब्रिटानिका भी बताता है कि एआई “जातीय अल्पसंख्यकों को नुकसान पहुंचा सकता है क्योंकि यह नस्लवाद को दोहराता और बढ़ाता है”.

अन्य खतरे शामिल हैं:

  • गोपनीयता और निगरानी: एआई सिस्टम अक्सर बड़ी मात्रा में व्यक्तिगत डेटा (सोशल मीडिया पोस्ट, स्वास्थ्य रिकॉर्ड आदि) की मांग करते हैं। इससे दुरुपयोग का खतरा बढ़ जाता है। यदि सरकारें या कंपनियां आपकी सहमति के बिना आपके डेटा का विश्लेषण करने के लिए एआई का उपयोग करती हैं, तो यह घुसपैठपूर्ण निगरानी का कारण बन सकता है।

    ब्रिटानिका एआई से जुड़े “खतरनाक गोपनीयता जोखिमों” की चेतावनी देता है। उदाहरण के लिए, एआई के एक विवादास्पद उपयोग, जिसे सोशल क्रेडिट स्कोरिंग कहा जाता है – जहां नागरिकों को एल्गोरिदम द्वारा रेट किया जाता है – को यूरोपीय संघ ने एक “अस्वीकार्य” प्रथा के रूप में प्रतिबंधित कर दिया है।
    यहां तक कि प्रसिद्ध चैटबॉट्स ने भी चिंता पैदा की है: 2023 में इटली ने डेटा गोपनीयता मुद्दों के कारण अस्थायी रूप से ChatGPT को ब्लॉक कर दिया था।

  • गलत सूचना और डीपफेक्स: एआई यथार्थवादी नकली टेक्स्ट, छवियां या वीडियो बना सकता है। इससे डीपफेक्स – नकली सेलिब्रिटी वीडियो या झूठी खबरें – बनाना आसान हो जाता है।

    ब्रिटानिका बताता है कि एआई “राजनीतिक, यहां तक कि खतरनाक गलत सूचनाएं” फैला सकता है। विशेषज्ञों ने चेतावनी दी है कि ऐसे नकली चुनाव या सार्वजनिक राय को प्रभावित करने के लिए इस्तेमाल हो सकते हैं।

    एक घटना में, विश्व नेताओं की एआई-निर्मित छवियां झूठी खबरों के साथ वायरल हुईं, जिन्हें बाद में खारिज कर दिया गया। वैज्ञानिक बताते हैं कि बिना नियमों के, एआई-चालित गलत सूचना बढ़ सकती है (जैसे नकली भाषण या छेड़ी गई छवियां जिनके लिए वर्तमान कानून तैयार नहीं है)।

  • नौकरी छूटना और आर्थिक व्यवधान: कार्य स्वचालन के कारण, एआई कार्यस्थल को बदल देगा। अंतर्राष्ट्रीय मुद्रा कोष रिपोर्ट करता है कि लगभग 40% वैश्विक नौकरियां (और विकसित देशों में 60%) एआई स्वचालन के लिए “संपर्क में” हैं. इसमें केवल कारखाने के काम ही नहीं बल्कि मध्यम वर्ग की नौकरियां जैसे लेखांकन या लेखन भी शामिल हैं।
    हालांकि एआई उत्पादकता बढ़ा सकता है (जिससे दीर्घकालिक वेतन बढ़ सकता है), कई कर्मचारियों को नई ट्रेनिंग की आवश्यकता हो सकती है या वे अल्पकालिक बेरोजगारी का सामना कर सकते हैं।
    टेक्नोलॉजी के नेता इस चिंता को स्वीकार करते हैं: माइक्रोसॉफ्ट के सीईओ ने भी कहा है कि एआई अचानक कुशल पेशेवरों की जगह ले सकता है।

  • सुरक्षा और दुर्भावनापूर्ण उपयोग: किसी भी तकनीक की तरह, एआई का उपयोग नुकसान पहुंचाने के लिए किया जा सकता है। साइबर अपराधी पहले से ही एआई का उपयोग विश्वसनीय फ़िशिंग ईमेल बनाने या सिस्टम की कमजोरियों को खोजने के लिए कर रहे हैं।

    सैन्य विशेषज्ञ स्वायत्त हथियारों को लेकर चिंतित हैं: ड्रोन या रोबोट जो बिना मानव अनुमति के लक्ष्य चुनते हैं।
    एआई शोधकर्ताओं की एक हालिया रिपोर्ट स्पष्ट रूप से चेतावनी देती है कि हमारे पास ऐसे संस्थान नहीं हैं जो  “लापरवाह... ऐसे कर्ताओं को रोक सकें जो खतरनाक तरीकों से क्षमताओं को लागू या विकसित कर सकते हैं”, जैसे स्वायत्त हमले प्रणाली।

    दूसरे शब्दों में, एक एआई सिस्टम जिसमें भौतिक नियंत्रण (जैसे हथियार) हो, वह विशेष रूप से खतरनाक हो सकता है यदि वह नियंत्रण से बाहर हो जाए या दुर्भावनापूर्ण रूप से प्रोग्राम किया गया हो।

  • मानव नियंत्रण का नुकसान: कुछ विचारक बताते हैं कि यदि एआई आज से कहीं अधिक शक्तिशाली हो जाता है, तो यह अप्रत्याशित तरीकों से कार्य कर सकता है। वर्तमान एआई सचेत या आत्म-जागरूक नहीं है, लेकिन भविष्य का सामान्य एआई (एजीआई) संभवतः मानव मूल्यों के साथ असंगत लक्ष्य अपना सकता है।

    प्रमुख एआई वैज्ञानिकों ने हाल ही में चेतावनी दी है कि “अत्यंत शक्तिशाली सामान्य एआई सिस्टम” निकट भविष्य में आ सकते हैं यदि हम तैयारी नहीं करते।

    नोबेल पुरस्कार विजेता जेफ्री हिन्टन और अन्य विशेषज्ञों ने यह भी बताया है कि यदि उन्नत एआई हमारी आवश्यकताओं के अनुरूप नहीं है तो यह मानवता को नुकसान पहुंचा सकता है। हालांकि यह जोखिम अनिश्चित है, इसने सावधानी बरतने के लिए उच्च-स्तरीय आह्वान को प्रेरित किया है।

  • ऊर्जा और पर्यावरणीय प्रभाव: बड़े एआई मॉडल का प्रशिक्षण और संचालन बहुत बिजली खपत करता है। यूनेस्को रिपोर्ट करता है कि जनरेटिव एआई की वार्षिक ऊर्जा खपत अब एक छोटे अफ्रीकी देश के बराबर है – और यह तेजी से बढ़ रही है।

    यह जलवायु परिवर्तन को और खराब कर सकता है जब तक कि हम हरित तरीकों का उपयोग न करें।

    अच्छी खबर यह है कि शोधकर्ता समाधान खोज रहे हैं: यूनेस्को के एक अध्ययन में दिखाया गया है कि विशिष्ट कार्यों के लिए छोटे, कुशल मॉडल का उपयोग करके एआई की ऊर्जा खपत को 90% तक कम किया जा सकता है बिना सटीकता खोए

संक्षेप में, आज के एआई के वास्तविक खतरे मुख्य रूप से इस बात से आते हैं कि लोग इसका उपयोग कैसे करते हैं। यदि एआई को सावधानीपूर्वक प्रबंधित किया जाए, तो इसके लाभ (स्वास्थ्य, सुविधा, सुरक्षा) अत्यंत महत्वपूर्ण हैं।

लेकिन यदि इसे बिना नियंत्रण छोड़ा जाए, तो एआई पक्षपात, अपराध और दुर्घटनाओं को बढ़ावा दे सकता है।

इन खतरों में सामान्य बात है नियंत्रण या निगरानी की कमी: एआई उपकरण शक्तिशाली और तेज़ हैं, इसलिए त्रुटियां या गलत उपयोग बड़े पैमाने पर हो सकते हैं जब तक हम हस्तक्षेप न करें।

एआई के संभावित जोखिम और खतरे

विशेषज्ञ और अधिकारी क्या कहते हैं

इन मुद्दों को देखते हुए, कई नेता और शोधकर्ता सामने आए हैं। हाल के वर्षों में एक बड़ा एआई विशेषज्ञों का सर्वसम्मति बन गया है।

2024 में, ऑक्सफोर्ड, बर्कले, ट्यूरिंग पुरस्कार विजेताओं सहित 25 शीर्ष एआई वैज्ञानिकों के एक समूह ने एक सर्वसम्मति बयान प्रकाशित किया जिसमें तत्काल कार्रवाई की अपील की गई।

उन्होंने विश्व सरकारों को चेतावनी दी कि वे अभी से तैयारी करें: “यदि हम एआई जोखिमों को कम आंकते हैं, तो परिणाम विनाशकारी हो सकते हैं,” और उन्होंने एआई सुरक्षा अनुसंधान के लिए धन और शक्तिशाली एआई की निगरानी के लिए नियामक निकाय बनाने का आग्रह किया।

उन्होंने जोर दिया कि एआई विकास  “सुरक्षा को बाद में सोचते हुए तेजी से आगे बढ़ रहा है,” और वर्तमान में हमारे पास दुष्ट अनुप्रयोगों को रोकने के लिए संस्थान नहीं हैं।

टेक्नोलॉजी के नेता भी इस चेतावनी को दोहराते हैं। OpenAI के सीईओ सैम ऑल्टमैन – जिनकी कंपनी ने ChatGPT बनाया – ने The New York Times को बताया कि उन्नत एआई बनाना डिजिटल युग के लिए एक “मैनहट्टन प्रोजेक्ट” की तरह है।

उन्होंने स्वीकार किया कि वही उपकरण जो निबंध या कोड लिख सकते हैं, गलत उपयोग, गंभीर दुर्घटनाएं और सामाजिक विघटन भी पैदा कर सकते हैं यदि सावधानी से संभाला न जाए।

2023 के अंत में, 1,000 से अधिक एआई पेशेवरों (जिनमें एलोन मस्क, एप्पल के सह-संस्थापक स्टीव वोज़नियाक और कई एआई शोधकर्ता शामिल हैं) ने अगली पीढ़ी के एआई मॉडल के प्रशिक्षण में रोक की मांग करते हुए एक खुला पत्र पर हस्ताक्षर किए।

उन्होंने चेतावनी दी कि हम एक “नियंत्रण से बाहर दौड़” में हैं, अधिक शक्तिशाली एआई बनाने के लिए जिसे इसके निर्माता भी “समझ, पूर्वानुमान या विश्वसनीय नियंत्रण नहीं कर सकते”।

सार्वजनिक मंचों पर, विशेषज्ञों ने विशिष्ट जोखिमों पर जोर दिया है। Google DeepMind के सीईओ डेमिस हसाबिस ने तर्क दिया कि सबसे बड़ा खतरा बेरोजगारी नहीं बल्कि गलत उपयोग है: एक साइबर अपराधी या दुष्ट राज्य जो समाज को नुकसान पहुंचाने के लिए एआई का उपयोग करता है।

उन्होंने बताया कि बहुत जल्द एआई मानव बुद्धिमत्ता के बराबर या उससे अधिक हो सकता है, और “एक बुरा कर्ता उन्हीं तकनीकों का उपयोग हानिकारक उद्देश्य के लिए कर सकता है”

दूसरे शब्दों में, भले ही हम नौकरी छूटने को संभाल लें, हमें यह सुनिश्चित करना होगा कि एआई उपकरण गलत हाथों में न जाएं।

सरकारें और अंतरराष्ट्रीय संस्थान भी इस पर ध्यान दे रहे हैं। व्हाइट हाउस (यूएसए) ने 2023 में एक कार्यकारी आदेश जारी किया जिसमें कहा गया कि एआई “आशा और खतरे दोनों के लिए असाधारण क्षमता रखता है” और इसके महत्वपूर्ण जोखिमों को कम करने के लिए “जिम्मेदार एआई उपयोग” के लिए समाजव्यापी प्रयास की आवश्यकता है।

यूरोपीय संघ ने दुनिया का पहला एआई अधिनियम (2024 से प्रभावी) पारित किया, जो सरकार द्वारा सामाजिक स्कोरिंग जैसी खतरनाक प्रथाओं पर प्रतिबंध लगाता है और उच्च जोखिम वाले एआई (स्वास्थ्य, कानून प्रवर्तन आदि) के लिए कड़े परीक्षण आवश्यक करता है।

यूनेस्को (शिक्षा और संस्कृति के लिए संयुक्त राष्ट्र एजेंसी) ने वैश्विक एआई नैतिकता सिफारिशें प्रकाशित की हैं जो एआई में निष्पक्षता, पारदर्शिता और मानव अधिकारों की सुरक्षा का आग्रह करती हैं।

यहां तक कि विज्ञान-नीति संगठन जैसे NIST (यूएस नेशनल इंस्टीट्यूट ऑफ स्टैंडर्ड्स) ने कंपनियों को विश्वसनीय एआई बनाने के लिए मार्गदर्शन देने हेतु एआई जोखिम प्रबंधन ढांचा जारी किया है।

ये सभी आवाजें एक बात पर सहमत हैं: एआई अपने आप नहीं रुकेगा। हमें सुरक्षा उपाय विकसित करना चाहिए. इसमें तकनीकी सुधार (पक्षपात ऑडिट, सुरक्षा परीक्षण) और नए कानून या निगरानी निकाय शामिल हैं।

उदाहरण के लिए, विश्वभर के विधायकों द्वारा परमाणु तकनीक के लिए बनाए गए बोर्डों की तरह एआई सुरक्षा बोर्डों पर विचार किया जा रहा है।

लक्ष्य नवाचार को रोकना नहीं है, बल्कि यह सुनिश्चित करना है कि यह सावधानीपूर्वक दिशानिर्देशों के तहत हो।

विशेषज्ञ और अधिकारी क्या कहते हैं

सुरक्षा उपाय और विनियमन

सौभाग्य से, कई समाधान पहले से ही लागू हो रहे हैं। मुख्य विचार है “डिज़ाइन द्वारा एआई सुरक्षा”. कंपनियां एआई विकास में नैतिक नियमों को शामिल कर रही हैं।

उदाहरण के लिए, एआई लैब मॉडल को रिलीज़ करने से पहले पक्षपात के लिए परीक्षण करते हैं और स्पष्ट या गलत आउटपुट को रोकने के लिए सामग्री फ़िल्टर जोड़ते हैं। सरकारें और संस्थान इसे नियमबद्ध कर रहे हैं।

यूरोपीय संघ का एआई अधिनियम, उदाहरण के लिए, कुछ खतरनाक उपयोगों पर पूरी तरह प्रतिबंध लगाता है और अन्य उपयोगों को “उच्च जोखिम” के रूप में वर्गीकृत करता है (ऑडिट के अधीन)।

इसी तरह, यूनेस्को का एआई नैतिकता ढांचा निष्पक्षता ऑडिट, साइबर सुरक्षा सुरक्षा, और सुलभ शिकायत प्रक्रियाओं जैसे उपायों की मांग करता है।

व्यावहारिक स्तर पर, मानक निर्धारण निकाय दिशानिर्देश जारी कर रहे हैं।

हमने पहले उल्लेख किया था कि यूएस का NIST ढांचा संगठनों को एआई जोखिम का आकलन और कम करने के लिए स्वैच्छिक मानक प्रदान करता है।

अंतरराष्ट्रीय स्तर पर, OECD और संयुक्त राष्ट्र जैसे समूह एआई सिद्धांतों पर काम कर रहे हैं (कई देशों ने इन्हें स्वीकार किया है)।

यहां तक कि कंपनियां और विश्वविद्यालय भी एआई सुरक्षा संस्थान और गठबंधन बना रहे हैं ताकि दीर्घकालिक जोखिमों पर शोध किया जा सके।

इसके अलावा, वर्तमान विनियमन विशिष्ट नुकसान को संबोधित करता है।

उदाहरण के लिए, उपभोक्ता संरक्षण कानूनों को एआई पर लागू किया जा रहा है।

मेटा के आंतरिक दस्तावेज़ों ने दिखाया कि एआई चैटबॉट्स बच्चों के साथ छेड़खानी कर रहे थे, जिससे नियामकों में गुस्सा भड़का (मेटा के उपकरण को मौजूदा बाल संरक्षण कानूनों के तहत अनुमति नहीं मिली)।

प्राधिकरण नफरत भरे भाषण, कॉपीराइट और गोपनीयता कानूनों को अपडेट करने के लिए प्रयासरत हैं ताकि एआई-जनित सामग्री को शामिल किया जा सके।

जैसा कि एक न्यूजीलैंड विशेषज्ञ ने कहा, कई वर्तमान कानून “जनरेटिव एआई को ध्यान में रखकर डिजाइन नहीं किए गए थे,” इसलिए विधायकों को पकड़ना पड़ रहा है।

कुल मिलाकर रुझान स्पष्ट है: एआई को अन्य द्वि-उपयोग तकनीकों की तरह माना जा रहा है।

जैसे हमारे पास कारों के लिए ट्रैफिक नियम या रसायनों के लिए सुरक्षा मानक हैं, समाज एआई के लिए गार्डरेल बनाना शुरू कर रहा है।

इनमें शामिल हैं: एआई जोखिमों पर निरंतर शोध, सुरक्षा पर सार्वजनिक-निजी सहयोग, डीपफेक्स के बारे में जागरूकता अभियान, और यहां तक कि मतपत्र जहां नागरिक मशीनों को कितनी स्वायत्तता देनी है, यह पूछा जाता है।

>>>और जानें:

क्या AI इंसानों की जगह ले सकता है?

क्या एआई मनुष्यों की तरह सोचता है?

सुरक्षा उपाय और विनियमन एआई


तो, क्या एआई खतरनाक है? इसका उत्तर जटिल है। एआई स्वाभाविक रूप से बुरा नहीं है – यह मनुष्यों द्वारा बनाया गया एक उपकरण है।

आज के इसके कई व्यावहारिक रूपों में, इसने चिकित्सा, शिक्षा, उद्योग और अन्य क्षेत्रों में बड़े लाभ दिए हैं (जैसे यूनेस्को और यूरोपीय संघ द्वारा उजागर)।

साथ ही, लगभग सभी सहमत हैं कि एआई खतरनाक हो सकता है यदि इसकी शक्ति का गलत उपयोग किया जाए या इसे बिना मार्गदर्शन छोड़ा जाए।

सामान्य चिंताएं हैं गोपनीयता उल्लंघन, पक्षपात, गलत सूचना, नौकरी में बदलाव, और संभावित सुपर-बुद्धिमत्ता का जोखिम।

एआई के बारे में सीख रहे युवा दोनों पक्षों पर ध्यान दें। वास्तविक खतरों से सावधान रहना बुद्धिमानी है: उदाहरण के लिए, कभी भी एआई पर अंधविश्वास न करें या बिना सावधानी के निजी डेटा साझा न करें।

लेकिन यह भी महत्वपूर्ण है कि विशेषज्ञ और सरकारें सक्रिय रूप से एआई को सुरक्षित बनाने के लिए काम कर रही हैं – कानून (जैसे यूरोपीय संघ का एआई अधिनियम), दिशानिर्देश (जैसे यूनेस्को की नैतिक सिफारिशें) और तकनीक (जैसे पक्षपात पहचान) विकसित करके समस्याओं को जल्दी पकड़ने के लिए।

संक्षेप में, एआई किसी भी शक्तिशाली तकनीक की तरह है: जब जिम्मेदारी से इस्तेमाल किया जाए तो यह बहुत लाभकारी हो सकता है, और गलत उपयोग से नुकसान भी पहुंचा सकता है।

वैज्ञानिकों और नीति निर्माताओं के बीच सर्वसम्मति यह है कि हमें न तो एआई से डरना चाहिए और न ही इसे नजरअंदाज करना चाहिए, बल्कि इसके भविष्य को आकार देने में सूचित और सक्रिय रहना चाहिए।

सही “गार्डरेल” के साथ – नैतिक एआई विकास, मजबूत विनियमन और सार्वजनिक जागरूकता – हम एआई को सुरक्षा की ओर ले जा सकते हैं और सुनिश्चित कर सकते हैं कि यह मानवता के लिए लाभकारी रहे बिना खतरनाक बने।

बाहरी संदर्भ
इस लेख को निम्नलिखित बाहरी स्रोतों के संदर्भ में संकलित किया गया है।