विशेषज्ञों के एक समूह का कहना है कि एआई के अस्तित्व संबंधी जोखिम के बारे में आशंकाएं बहुत अधिक हैं


नुकसान पहुंचाने के लिए AI के लिए अधीक्षण की आवश्यकता नहीं है। वह पहले से ही हो रहा है. एआई का उपयोग गोपनीयता का उल्लंघन करने, गलत सूचना बनाने और फैलाने, साइबर-सुरक्षा से समझौता करने और पक्षपातपूर्ण निर्णय लेने वाली प्रणाली बनाने के लिए किया जाता है। एआई के सैन्य दुरुपयोग की संभावना आसन्न है। आज के एआई सिस्टम दमनकारी शासनों को बड़े पैमाने पर निगरानी करने और सामाजिक नियंत्रण के शक्तिशाली रूपों को लागू करने में मदद करते हैं। इन समसामयिक हानियों को नियंत्रित करना या कम करना न केवल तात्कालिक मूल्य का है, बल्कि संभावित संभावनाओं को कम करने के लिए सबसे अच्छा विकल्प भी है, भले ही यह काल्पनिक हो। भविष्य का जोखिम।

यह कहना सुरक्षित है कि आज जो एआई मौजूद है वह अतिबुद्धिमान नहीं है। लेकिन यह संभव है कि भविष्य में AI को सुपरइंटेलिजेंट बना दिया जाएगा। शोधकर्ता इस बात पर विभाजित हैं कि यह कितनी जल्दी हो सकता है, या होगा भी या नहीं। फिर भी, आज के एआई मॉडल प्रभावशाली हैं, और यकीनन उनमें दुनिया की बुद्धिमत्ता और समझ का एक रूप है; अन्यथा वे इतने उपयोगी नहीं होंगे। फिर भी वे आसानी से मूर्ख बन जाते हैं, झूठ बोलने के लिए उत्तरदायी होते हैं और कभी-कभी सही ढंग से तर्क करने में विफल हो जाते हैं। परिणामस्वरूप, कई समकालीन नुकसान इसकी क्षमताओं के बजाय एआई की सीमाओं से उत्पन्न होते हैं।

यह स्पष्ट नहीं है कि एआई, सुपरइंटेलिजेंट है या नहीं, को अपनी एजेंसी के साथ एक विदेशी इकाई के रूप में या किसी भी अन्य तकनीक की तरह मानवजनित दुनिया के हिस्से के रूप में सबसे अच्छा माना जाता है जो मनुष्यों द्वारा आकार और निर्माण दोनों करती है। लेकिन तर्क के लिए, आइए मान लें कि भविष्य में किसी बिंदु पर एक सुपरइंटेलिजेंट एआई उभरेगा जो एक बुद्धिमान गैर-जैविक जीव के रूप में अपनी एजेंसी के तहत मानवता के साथ बातचीत करता है। कुछ एक्स-रिस्क-बूस्टर का सुझाव है कि ऐसा एआई प्राकृतिक चयन द्वारा मानव विलुप्त होने का कारण बनेगा, जो अपनी बेहतर बुद्धिमत्ता से मानवता को मात देगा।

प्राकृतिक चयन में बुद्धिमत्ता निश्चित रूप से एक भूमिका निभाती है। लेकिन विलुप्ति “उच्च” और “निम्न” जीवों के बीच प्रभुत्व के लिए संघर्ष का परिणाम नहीं है। बल्कि, जीवन एक परस्पर जुड़ा हुआ जाल है, जिसमें कोई ऊपर या नीचे नहीं है (कॉकरोच की आभासी अविनाशीता पर विचार करें)। सहजीवन और पारस्परिकता – विभिन्न प्रजातियों के बीच पारस्परिक रूप से लाभकारी बातचीत – आम है, खासकर जब एक प्रजाति संसाधनों के लिए दूसरे पर निर्भर होती है। और इस मामले में, एआई पूरी तरह से मनुष्यों पर निर्भर है। ऊर्जा और कच्चे माल से लेकर कंप्यूटर चिप्स, विनिर्माण, लॉजिस्टिक्स और नेटवर्क बुनियादी ढांचे तक, हम एआई के अस्तित्व के लिए उतने ही मौलिक हैं जितने ऑक्सीजन उत्पादक संयंत्र हमारे लिए हैं।

शायद कंप्यूटर अंततः इंसानों को उनकी पारिस्थितिकी से बाहर कर खुद की देखभाल करना सीख सकते हैं? यह पूरी तरह से स्वचालित अर्थव्यवस्था के समान होगा, जो संभवतः सुपरइंटेलिजेंट एआई के साथ या उसके बिना, न तो वांछनीय और न ही अपरिहार्य परिणाम है। पूर्ण स्वचालन वर्तमान आर्थिक प्रणालियों के साथ असंगत है और, इससे भी महत्वपूर्ण बात यह है कि यह किसी भी आर्थिक शासन के तहत मानव के उत्कर्ष के साथ असंगत हो सकता है – पिक्सर के “वॉल-ई” के डिस्टोपिया को याद करें।

सौभाग्य से, सभी मानव श्रम को स्वचालित करने का मार्ग लंबा है। प्रत्येक चरण एक अड़चन पेश करता है (एआई के दृष्टिकोण से) जिस पर मनुष्य हस्तक्षेप कर सकते हैं। इसके विपरीत, सूचना-प्रसंस्करण श्रम जो एआई बिना किसी लागत के कर सकता है, वह महान अवसर और तत्काल सामाजिक-आर्थिक चुनौती दोनों प्रस्तुत करता है।

कुछ लोग अभी भी तर्क दे सकते हैं कि एआई एक्स-जोखिम, भले ही असंभव हो, इतना गंभीर है कि इसके शमन को प्राथमिकता देना सर्वोपरि है। यह पास्कल के दांव को प्रतिध्वनित करता है, 17वीं शताब्दी का दार्शनिक तर्क जो मानता था कि ईश्वर में विश्वास करना तर्कसंगत है, अगर वह वास्तविक है, ताकि नरक में निंदा किए जाने के भयानक भाग्य की किसी भी संभावना से बचा जा सके। पास्कल का दांव, अपने मूल और एआई दोनों संस्करणों में, अनिश्चित परिणामों के लिए अनंत लागत निर्धारित करके तर्कसंगत बहस को समाप्त करने के लिए डिज़ाइन किया गया है।

उपयोगितावादी विश्लेषण में, जिसमें लागत को संभावनाओं से गुणा किया जाता है, शून्य के अलावा किसी भी संभावना का अनंत गुना अभी भी अनंत है। इसलिए पास्कल के दांव के एआई एक्स-जोखिम संस्करण को स्वीकार करने से हम इस निष्कर्ष पर पहुंच सकते हैं कि एआई अनुसंधान को पूरी तरह से रोक दिया जाना चाहिए या सरकारों द्वारा सख्ती से नियंत्रित किया जाना चाहिए। यह लाभकारी एआई के उभरते क्षेत्र को कम कर सकता है, या एआई नवाचार पर पकड़ बनाने वाले कार्टेल बना सकता है। उदाहरण के लिए, यदि सरकारें चैटजीपीटी और बार्ड जैसे बड़े जेनरेटर भाषा मॉडल को तैनात करने के कानूनी अधिकार को केवल कुछ कंपनियों तक सीमित करने वाले कानून पारित करती हैं, तो वे कंपनियां सामाजिक मानदंडों को आकार देने के लिए अभूतपूर्व (और अलोकतांत्रिक) शक्ति और डिजिटल उपकरणों पर किराया निकालने की क्षमता हासिल कर सकती हैं जो 21 वीं सदी की अर्थव्यवस्था के लिए महत्वपूर्ण हो सकते हैं।

शायद नियमों को इस तरह से डिज़ाइन किया जा सकता है कि एक्स-जोखिम की संभावना को कम किया जा सके और साथ ही तत्काल एआई हानियों पर भी ध्यान दिया जा सके? शायद नहीं; एआई एक्स-जोखिम पर अंकुश लगाने के प्रस्ताव अक्सर मौजूदा एआई नुकसान पर निर्देशित प्रस्तावों के साथ तनाव में होते हैं। उदाहरण के लिए, एआई मॉडल या डेटासेट के ओपन-सोर्स रिलीज को सीमित करने के नियम तब समझ में आते हैं जब लक्ष्य मानव नियंत्रण से परे एक स्वायत्त नेटवर्क वाले एआई के उद्भव को रोकना है। हालाँकि, ऐसे प्रतिबंध अन्य नियामक प्रक्रियाओं को बाधित कर सकते हैं, उदाहरण के लिए एआई सिस्टम में पारदर्शिता को बढ़ावा देने या एकाधिकार को रोकने के लिए। इसके विपरीत, विनियमन जो ठोस, अल्पकालिक जोखिमों का लक्ष्य रखता है – जैसे कि एआई सिस्टम को ईमानदारी से अपने बारे में जानकारी का खुलासा करने की आवश्यकता होती है – दीर्घकालिक और यहां तक ​​​​कि अस्तित्व संबंधी जोखिमों को कम करने में भी मदद करेगा।

नियामकों को सुपरइंटेलिजेंट एआई द्वारा उत्पन्न अस्तित्वगत जोखिम को प्राथमिकता नहीं देनी चाहिए। इसके बजाय, उन्हें उन समस्याओं का समाधान करना चाहिए जो उनके सामने हैं, मॉडल को सुरक्षित बनाना चाहिए और उनके संचालन को मानवीय आवश्यकताओं और मानदंडों के अनुरूप अधिक पूर्वानुमानित बनाना चाहिए। विनियमों को एआई की अनुचित तैनाती को रोकने पर ध्यान केंद्रित करना चाहिए। और राजनीतिक नेताओं को एक ऐसी राजनीतिक अर्थव्यवस्था की फिर से कल्पना करनी चाहिए जो एआई के उपयोग के माध्यम से पारदर्शिता, प्रतिस्पर्धा, निष्पक्षता और मानवता के उत्कर्ष को बढ़ावा दे। यह आज के एआई जोखिमों को रोकने में एक लंबा रास्ता तय करेगा, और अधिक अस्तित्वगत, यद्यपि काल्पनिक, जोखिमों को कम करने की दिशा में सही दिशा में एक कदम होगा।

ब्लेज़ अगुएरा वाई आर्कस गूगल रिसर्च में फेलो हैं, जहां वह कृत्रिम बुद्धिमत्ता पर काम करने वाली एक टीम का नेतृत्व करते हैं। यह टुकड़ा मैकगिल विश्वविद्यालय के एसोसिएट प्रोफेसर और मिला-क्यूबेक एआई संस्थान में सीआईएफएआर एआई चेयर ब्लेक रिचर्ड्स के साथ सह-लिखा गया था; धन्या श्रीधर, यूनिवर्सिटी डी मॉन्ट्रियल में सहायक प्रोफेसर और मिला-क्यूबेक एआई इंस्टीट्यूट में सीआईएफएआर एआई चेयर; और गिलाउम लाजोई, यूनिवर्सिटी डे मॉन्ट्रियल में एसोसिएट प्रोफेसर और मिला-क्यूबेक एआई इंस्टीट्यूट में सीआईएफएआर एआई चेयर।

©️ 2023, द इकोनॉमिस्ट न्यूजपेपर लिमिटेड। सर्वाधिकार सुरक्षित।

द इकोनॉमिस्ट से, लाइसेंस के तहत प्रकाशित। मूल सामग्री www.economist.com पर पाई जा सकती है

.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *