गुरूवार, 9 मई 2024

डेस्कटॉप v4.2.1

Root Nationउत्तरप्रौद्योगिकियोंओपनएआई प्रोजेक्ट प्रश्न*: यह क्या है और यह प्रोजेक्ट चिंता का विषय क्यों है

ओपनएआई प्रोजेक्ट प्रश्न*: यह क्या है और यह प्रोजेक्ट चिंता का विषय क्यों है

-

रहस्यमय प्रोजेक्ट क्यू* OpenAI विशेषज्ञों के बीच चिंता का कारण बन रहा है। क्या वह सचमुच मानवता के लिए खतरनाक हो सकता है? उसके बारे में क्या पता है? सैम ऑल्टमैन को पिछले सप्ताह शुरुआत में निकाल दिया गया था और वह और टीम लगभग इसमें शामिल हो गए थे Microsoft, फिर वह अपने कार्यस्थल पर वापस लौट आया (इसके बारे में)। हमने यहां लिखा), OpenAI फिर से चर्चा में है। इस बार उस चीज़ के कारण जिसे कुछ शोधकर्ता मानवता के लिए संभावित ख़तरा कहते हैं। जी हाँ, आपने सही पढ़ा, मानवता के लिए खतरा।

प्रौद्योगिकी की दुनिया में वास्तविक उथल-पुथल प्रोजेक्ट क्यू* के कारण हुई - सामान्य कृत्रिम बुद्धिमत्ता (एजीआई) की एक अज्ञात परियोजना - जिसे क्यू-स्टार कहा जाता है। हालाँकि यह परियोजना अपने प्रारंभिक चरण में है, लेकिन इसे एजीआई विकास में वास्तव में अग्रणी माना जाता है। हालाँकि, कुछ लोग इसे मानवता के लिए ख़तरा मानते हैं।

ओपनएआई प्रोजेक्ट Q

प्रसिद्ध कृत्रिम बुद्धिमत्ता प्रयोगशाला OpenAI द्वारा विकसित एक गुप्त कृत्रिम बुद्धिमत्ता परियोजना में सामान्य रूप से प्रौद्योगिकी और समाज में क्रांति लाने की क्षमता है। लेकिन यह जोखिमों के बारे में कुछ नैतिक प्रश्न भी उठाता है। जैसे-जैसे प्रोजेक्ट क्यू* की आश्चर्यजनक क्षमताओं के बारे में विवरण सामने आ रहे हैं, मानवता के भविष्य के लिए इसका क्या अर्थ हो सकता है, इसके बारे में अधिक से अधिक अटकलें सामने आ रही हैं।

यह भी दिलचस्प: ओपनएआई का इतिहास: यह क्या था और कंपनी के लिए आगे क्या होगा

आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) क्या है?

प्रोजेक्ट क्यू* (क्यू-स्टार) के आसपास के प्रचार को समझने के लिए, आइए पहले यह समझने की कोशिश करें कि आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) की अवधारणा क्या है। जबकि वर्तमान कृत्रिम बुद्धिमत्ता प्रणालियाँ शतरंज खेलने या चित्र बनाने जैसे संकीर्ण, विशिष्ट कार्यों में उत्कृष्टता प्राप्त करती हैं, सामान्य कृत्रिम बुद्धिमत्ता उन मशीनों को संदर्भित करती है जो कई डोमेन में मानवीय स्तर पर सीख और सोच सकती हैं। अर्थात्, वे स्कूल में छोटे बच्चों की तरह अध्ययन कर सकते हैं, उदाहरण के लिए, गणित, रसायन विज्ञान, जीव विज्ञान, आदि की मूल बातें।

जनरल आर्टिफिशियल इंटेलिजेंस (एजीआई) एक प्रकार की मशीन इंटेलिजेंस है जो विभिन्न प्रकार की समस्याओं को हल करने के लिए सीखने और उस क्षमता को लागू करने की क्षमता के साथ मानव बुद्धि या व्यवहार की काल्पनिक रूप से नकल कर सकती है। AGI को मजबूत कृत्रिम बुद्धिमत्ता, पूर्ण कृत्रिम बुद्धिमत्ता या मानव-स्तरीय कृत्रिम बुद्धिमत्ता भी कहा जाता है। सामान्य AI कमजोर या संकीर्ण AI से भिन्न होता है, जो केवल दिए गए मापदंडों के भीतर विशिष्ट या विशिष्ट कार्य करने में सक्षम होता है। ZHI ज्ञान के विभिन्न क्षेत्रों की विभिन्न जटिल समस्याओं को स्वतंत्र रूप से हल करने में सक्षम होगा।

ओपनएआई प्रोजेक्ट Q

डीपमाइंड और एंथ्रोपिक जैसी कंपनियों द्वारा कृत्रिम बुद्धिमत्ता अनुसंधान का मुख्य फोकस कृत्रिम बुद्धिमत्ता का निर्माण करना है। सीएसआई विज्ञान कथा साहित्य में एक बहुत लोकप्रिय विषय है और यह भविष्य के शोध को आकार दे सकता है। कुछ लोगों का तर्क है कि वर्षों या दशकों के भीतर यूसीआई बनाना संभव है, जबकि अन्य का तर्क है कि इसमें एक शताब्दी या उससे अधिक का समय लग सकता है। लेकिन ऐसे लोग भी हैं जो मानते हैं कि यह कभी हासिल नहीं होगा। कुछ लोगों ने GPT-3 में URI की शुरुआत देखी है, लेकिन यह अभी भी बुनियादी मानदंडों को पूरा करने से बहुत दूर लगता है।

कृत्रिम सामान्य बुद्धि (एजीआई) के निर्माण को शोधकर्ताओं द्वारा कृत्रिम बुद्धि की पवित्र कब्र माना जाता है, एक सैद्धांतिक संभावना जिसने लंबे समय से उनकी कल्पना पर कब्जा कर लिया है। इसलिए, OpenAI प्रोजेक्ट Q* जैसी परियोजना की उपस्थिति ने कृत्रिम बुद्धिमत्ता एल्गोरिदम अनुसंधान की दुनिया में एक बड़ी प्रतिध्वनि पैदा की। हालाँकि हर कोई समझता है कि ये लगभग आँख बंद करके, एक ऐसी दुनिया की ओर केवल पहला कदम हैं जहाँ कृत्रिम बुद्धिमत्ता में मनुष्यों के समान या उससे भी अधिक क्षमताएँ होंगी।

- विज्ञापन -

यह भी दिलचस्प: इसके बारे में सबकुछ Microsoft सहपायलट: भविष्य या गलत तरीका?

प्रोजेक्ट Q* क्या है?

प्रोजेक्ट Q* एक विशिष्ट एल्गोरिदम नहीं है क्योंकि यह एक कृत्रिम बुद्धिमत्ता मॉडल है जो तेजी से कृत्रिम सामान्य बुद्धिमत्ता (एजीआई) मॉडल के करीब पहुंच रहा है। इसका मतलब यह है कि, ChatGPT के विपरीत, प्रोजेक्ट Q* अन्य एल्गोरिदम की तुलना में बेहतर सोच और संज्ञानात्मक कौशल दिखाता है। चैटजीपीटी वर्तमान में बड़ी मात्रा में तथ्यात्मक सामग्री के आधार पर प्रश्नों का उत्तर देता है, लेकिन एजीआई के साथ, एआई मॉडल तर्क और सोचने और समझने की क्षमता सीखेगा। यह पहले से ही ज्ञात है कि प्रोजेक्ट Q* सरल गणितीय समस्याओं को हल करने में सक्षम है जो इसकी प्रशिक्षण सामग्री का हिस्सा नहीं थे। कुछ शोधकर्ता इसमें सामान्य कृत्रिम बुद्धिमत्ता (एजीआई) के निर्माण की दिशा में एक महत्वपूर्ण कदम देखते हैं। ओपनएआई एजीआई को कृत्रिम बुद्धिमत्ता प्रणालियों के रूप में परिभाषित करता है जो मनुष्यों से अधिक स्मार्ट हैं।

ओपनएआई प्रोजेक्ट Q

प्रोजेक्ट Q* का विकास OpenAI के मुख्य वैज्ञानिक इल्या सुत्ज़केवर द्वारा प्रबंधित किया जाता है, और इसका आधार शोधकर्ताओं जैकब पखोटस्की और शिमोन सिदोर द्वारा प्रमाणित किया गया था।

गणितीय समस्याओं को अपने आप हल करने की एल्गोरिदम की क्षमता, भले ही ये समस्याएं प्रशिक्षण डेटा सेट का हिस्सा न हों, कृत्रिम बुद्धिमत्ता के क्षेत्र में एक सफलता मानी जाती है। इस परियोजना को लेकर टीम में असहमति ओपनएआई के सीईओ सैम ऑल्टमैन को अस्थायी रूप से हटाने से जुड़ी है। यह ज्ञात है कि ऑल्टमैन को निकाले जाने से पहले, कंपनी के शोधकर्ताओं के एक समूह ने निदेशक मंडल को एआई की खोज के बारे में चेतावनी देते हुए एक पत्र भेजा था जो मानवता के लिए खतरा पैदा कर सकता है। वह पत्र, जिसमें कथित तौर पर प्रोजेक्ट क्यू* एल्गोरिदम पर चर्चा की गई थी, को उन कारकों में से एक के रूप में उद्धृत किया गया था जिसके कारण ऑल्टमैन को बर्खास्त किया गया था। हालाँकि, प्रोजेक्ट Q* की क्षमताओं और इससे उत्पन्न होने वाले संभावित जोखिमों को पूरी तरह से समझा नहीं गया है क्योंकि विवरण अज्ञात हैं। आम जनता के लिए कुछ भी जारी नहीं किया गया है।

ओपनएआई प्रोजेक्ट Q

इसके मूल में, प्रोजेक्ट क्यू* एक मॉडल-मुक्त सुदृढीकरण सीखने की विधि है जो पर्यावरण के पूर्व ज्ञान की आवश्यकता के बिना पारंपरिक मॉडल से हटकर है। इसके बजाय, यह अनुभव के माध्यम से सीखता है, पुरस्कार और दंड के आधार पर कार्यों को अपनाता है। तकनीकी विशेषज्ञों का मानना ​​है कि प्रोजेक्ट क्यू* मानव संज्ञानात्मक क्षमताओं के समान क्षमताएं प्राप्त करके उत्कृष्ट क्षमताएं हासिल करने में सक्षम होगा।

हालाँकि, यह वह विशेषता है जो कृत्रिम बुद्धिमत्ता के नए मॉडल में सबसे प्रभावशाली है जो शोधकर्ताओं और आलोचकों को चिंतित करती है और प्रौद्योगिकी के वास्तविक दुनिया के अनुप्रयोगों और इसमें शामिल अंतर्निहित जोखिमों के बारे में उनके डर को बढ़ाती है। वैज्ञानिक और शोधकर्ता किससे इतने डरते हैं? आइए इसका पता लगाएं।

यह भी दिलचस्प: वाई-फाई 6 को सपोर्ट करने के लिए अपने घरेलू उपकरणों को कैसे अपडेट करें

वे अज्ञात से डरते हैं

मनुष्य सदैव अज्ञात, अज्ञात से डरता रहा है। यह मानवीय सार है, हमारे चरित्र और जीवन शैली की एक विशेषता है।

टेक्नोलॉजी की दुनिया को रॉयटर्स के बाद नवंबर 2023 में प्रोजेक्ट Q* के बारे में पता चला की सूचना दी संबंधित OpenAI शोधकर्ताओं द्वारा लिखे गए एक आंतरिक पत्र के बारे में। पत्र की सामग्री अस्पष्ट थी, लेकिन कथित तौर पर इसमें प्रोजेक्ट Q* की क्षमताओं का गंभीरता से विश्लेषण किया गया था। जैसा कि मैंने ऊपर उल्लेख किया है, ऐसी भी अटकलें हैं कि यह वह पत्र था जिसके कारण सैम ऑल्टमैन को इस्तीफा देना पड़ा।

ओपनएआई प्रोजेक्ट Q

इस विस्फोटक खोज ने प्रोजेक्ट Q* की प्रकृति के संबंध में विभिन्न परिकल्पनाओं को जन्म दिया है। वैज्ञानिकों ने सुझाव दिया है कि यह एआई के लिए एक क्रांतिकारी प्राकृतिक भाषा मॉडल हो सकता है। नए एल्गोरिदम का एक प्रकार का आविष्कारक जो उन्हें एआई के अन्य रूपों, या इस क्षेत्र में पूरी तरह से अलग कुछ के लिए बनाएगा।

"औसत कर्मचारी" के रूप में सामान्य कृत्रिम बुद्धिमत्ता के बारे में ऑल्टमैन की उत्तेजक टिप्पणियों ने पहले ही नौकरी की सुरक्षा और एआई के प्रभाव के अजेय विस्तार के बारे में चिंताएँ बढ़ा दी हैं। इस रहस्यमय एल्गोरिदम को आर्टिफिशियल जनरल इंटेलिजेंस (एजीआई) के विकास में एक मील का पत्थर के रूप में परिभाषित किया गया है। हालाँकि, हर कोई समझता है कि यह मील का पत्थर महंगा है। और यह अब पैसे के बारे में नहीं है. नए एआई मॉडल द्वारा वादा किया गया संज्ञानात्मक कौशल का स्तर अनिश्चितता के साथ आता है। ओपनएआई वैज्ञानिकों का वादा है कि एआई में मानव-स्तरीय सोच होगी। और इसका मतलब यह है कि हम बहुत सी बातें नहीं जान सकते और परिणामों की भविष्यवाणी नहीं कर सकते। और यह जितना अधिक अज्ञात होगा, इसे नियंत्रित करने या ठीक करने के लिए तैयारी करना उतना ही कठिन होगा। यानी नया एल्गोरिदम आत्म-सुधार और विकास करने में सक्षम है। ये तो हम पहले ही कहीं देख चुके हैं...

यह भी दिलचस्प: Windows 12: नया OS क्या होगा?

- विज्ञापन -

प्रोजेक्ट Q की क्षमताओं के बारे में अद्भुत विवरण*

जब अधिक जानकारी सामने आने लगी तो इसने कई शोधकर्ताओं को चौंका दिया। प्रारंभिक संकेत थे कि प्रोजेक्ट Q* में गणित की अद्भुत क्षमता थी। यांत्रिक गणना करने वाले कैलकुलेटर के विपरीत, प्रोजेक्ट Q* जटिल गणित समस्याओं को हल करने के लिए तर्क और तर्क का उपयोग कर सकता है। सामान्यीकरण करने की यह गणितीय क्षमता व्यापक बुद्धि के विकास का संकेत देती है।

ओपनएआई प्रोजेक्ट Q

विशिष्ट एआई को प्रशिक्षित करने के लिए उपयोग किए जाने वाले विशिष्ट डेटासेट के बिना, प्रोजेक्ट क्यू* का स्वायत्त प्रशिक्षण भी एक बड़ा कदम होगा। यह अज्ञात है कि क्या प्रोजेक्ट क्यू* ने किसी अन्य कौशल में महारत हासिल की है। लेकिन उनकी गणितीय क्षमताएं अपने आप में इतनी अद्भुत हैं कि वे अनुभवी शोधकर्ताओं को भी भ्रमित कर देती हैं।

यह भी पढ़ें: मानव मस्तिष्क परियोजना: मानव मस्तिष्क की नकल करने का एक प्रयास

प्रोजेक्ट Q* के प्रभुत्व का मार्ग?

इस मामले में आशावादी और निराशावादी दोनों परिदृश्य मौजूद हैं। आशावादी कहेंगे कि प्रोजेक्ट क्यू* वह चिंगारी हो सकती है जो तकनीकी सफलता की ओर ले जाती है। जैसे-जैसे प्रणाली बार-बार आत्म-सुधार करती है, इसकी अलौकिक बुद्धिमत्ता जलवायु परिवर्तन से लेकर रोग नियंत्रण तक मानवता की कुछ सबसे महत्वपूर्ण समस्याओं को हल करने में मदद कर सकती है। प्रोजेक्ट Q* उबाऊ काम को स्वचालित कर सकता है और हमारे खाली समय को अन्य गतिविधियों के लिए खाली कर सकता है।

ओपनएआई प्रोजेक्ट Q

हालाँकि और भी कई निराशावादी विकल्प हैं। कभी-कभी, वे काफी उचित होते हैं और उनका एक निश्चित अर्थ होता है।

नौकरियों का नुकसान

प्रौद्योगिकी के विकास में तीव्र बदलाव लोगों के व्यक्तिगत अनुकूलन को पीछे छोड़ सकते हैं। इससे एक या अधिक पीढ़ियाँ नष्ट हो जाएंगी जो नई वास्तविकताओं के अनुकूल होने के लिए आवश्यक कौशल या ज्ञान प्राप्त नहीं कर पाएंगी। यानी, बदले में, इसका मतलब यह है कि कम लोग अपनी नौकरियां बचा पाएंगे। इसके बजाय इसे मशीनों, स्वचालित प्रणालियों और रोबोटों द्वारा निष्पादित किया जाएगा। हालाँकि, जब योग्य विशेषज्ञों की बात आती है तो उत्तर इतना स्पष्ट नहीं है। इसके अलावा, विशेष रूप से कृत्रिम बुद्धिमत्ता एल्गोरिदम के विकास से संबंधित नए पेशे सामने आ सकते हैं। लेकिन अभी भी जोखिम हैं और मानवता को उन्हें नज़रअंदाज़ करने का कोई अधिकार नहीं है।

अनियंत्रित शक्ति का ख़तरा

यदि प्रोजेक्ट क्यू* जितना शक्तिशाली एआई नापाक इरादों वाले लोगों के हाथों में पड़ जाता है, तो यह मानवता के लिए विनाशकारी परिणामों का जोखिम उठाता है। संभावित दुर्भावनापूर्ण इरादे के बिना भी, प्रोजेक्ट Q* का निर्णय लेने का स्तर हानिकारक परिणामों का कारण बन सकता है, जो इसके अनुप्रयोग के सावधानीपूर्वक मूल्यांकन के महत्वपूर्ण महत्व को रेखांकित करता है।

यदि प्रोजेक्ट Q* को मानवीय आवश्यकताओं के लिए खराब रूप से अनुकूलित किया गया है, तो यह कुछ मनमाने मैट्रिक्स को अधिकतम करने की अपनी क्षमता से नुकसान पहुंचा सकता है। या इसका कोई राजनीतिक आयाम हो सकता है, जैसे राज्य की निगरानी या दमन के लिए इस्तेमाल किया जाना। प्रोजेक्ट Q* के प्रभाव विश्लेषण पर एक खुली बहस ZHI के विकास के लिए संभावित परिदृश्यों को परिभाषित करने में मदद करेगी।

क्या हम "आदमी बनाम मशीन" मुकाबले में हैं?

हॉलीवुड पहले भी अपनी फिल्मों में ऐसे टकराव के कई परिदृश्य रच चुका है। हम सभी को प्रसिद्ध स्काईनेट और ऐसी खोज के परिणाम याद हैं। शायद OpenAI शोधकर्ताओं को यह फिल्म दोबारा देखनी चाहिए?

मानवता को संकेतों और चुनौतियों को स्वीकार करने और जो भी हो सकता है उसके लिए तैयार रहने की जरूरत है। इंसान की तरह सोचने में सक्षम कृत्रिम बुद्धिमत्ता मॉडल किसी दिन हमारा दुश्मन बन सकता है। कई लोग तर्क देंगे कि भविष्य में वैज्ञानिकों को पता चल जाएगा कि स्थिति को नियंत्रण में कैसे रखा जाए। लेकिन जब मशीनों की बात आती है, तो आप इस संभावना से पूरी तरह इनकार नहीं कर सकते कि वे इंसानों पर कब्ज़ा करने की कोशिश करेंगी।

यह भी दिलचस्प: हम जो कुछ भी एआई कहते हैं वह वास्तव में कृत्रिम बुद्धिमत्ता नहीं है। यहाँ आपको जानने की आवश्यकता है

OpenAI चुप क्यों है?

प्रोजेक्ट Q* में सार्वजनिक रुचि के उन्माद के बावजूद, OpenAI का प्रबंधन एल्गोरिदम की विशिष्टताओं के बारे में चुप है। लेकिन आंतरिक लीक प्राथमिकताओं और विकास के खुलेपन को लेकर प्रयोगशाला में बढ़ते तनाव को दर्शाता है। जबकि कई OpenAI अंदरूनी सूत्र प्रोजेक्ट Q* के निर्माण का समर्थन करते हैं, आलोचकों का तर्क है कि किसी भी कीमत पर वैज्ञानिक प्रगति में तेजी लाने में पारदर्शिता पीछे रह गई है। और कुछ शोधकर्ता इस बात से चिंतित हैं कि उन प्रणालियों को अविश्वसनीय शक्ति दी जाती है जिनके लक्ष्य जरूरी नहीं कि मानवीय मूल्यों और नैतिकता से मेल खाते हों। इन शोधकर्ताओं का मानना ​​है कि निरीक्षण और जवाबदेही के इर्द-गिर्द होने वाली बहसें खतरनाक रूप से शांत हो गई हैं। उन्हें अधिक प्रचार और विवरण की आवश्यकता है।

ओपनएआई प्रोजेक्ट Q

प्रोजेक्ट Q* के रचनाकारों के रूप में, OpenAI को यह समझना चाहिए कि उनके पास एक ऐसी तकनीक है जो या तो समाज के विकास की संभावनाओं का विस्तार कर सकती है, या इसे बेरहमी से नष्ट कर सकती है। इस तरह के महत्वपूर्ण नवाचारों के लिए सार्वजनिक विश्वास बनाने के लिए अधिक पारदर्शिता की आवश्यकता होती है। मशीनी युग के किसी भी भविष्यवक्ता को लाभ के साथ-साथ जोखिमों का सावधानीपूर्वक मूल्यांकन करना चाहिए। और प्रोजेक्ट Q* के डेवलपर्स को समाज को सामान्य कृत्रिम बुद्धिमत्ता के एक नए युग में सुरक्षित रूप से प्रवेश कराने के लिए पर्याप्त बुद्धिमत्ता और देखभाल दिखाने की आवश्यकता है, जो हमारी कल्पना से भी पहले आ सकता है।

सामान्य कृत्रिम बुद्धिमत्ता मानवता के लिए उपयोगी और सुरक्षित हो, इसके लिए यह सुनिश्चित किया जाना चाहिए कि यह सुरक्षित, नैतिक रूप से और मानवता के मूल्यों और लक्ष्यों के अनुसार संचालित हो। इसके लिए उपयुक्त नियामक अधिनियमों, मानकों, नियमों और प्रोटोकॉल के विकास और कार्यान्वयन की आवश्यकता है जो सीएसआई के कार्यों और व्यवहार को नियंत्रित और नियंत्रित करेंगे। इसके अलावा, दुर्व्यवहार, दुर्घटनाओं, असंगतताओं, हेरफेर और संघर्षों से जुड़े संभावित खतरों और जोखिमों को समाप्त किया जाना चाहिए जो मानवता के विनाश का कारण बन सकते हैं। इस बीच, निवेशक और Microsoft बेसब्री से ऐसे विपणन योग्य उत्पाद की प्रतीक्षा की जा रही है जो लाभ उत्पन्न कर सके, जो निस्संदेह जिम्मेदारी से कार्य करने की आवश्यकता के साथ टकराव करता है। आशा करते हैं कि सामान्य ज्ञान कायम रहेगा।

यह भी पढ़ें: 

Yuri Svitlyk
Yuri Svitlyk
कार्पेथियन पर्वत के पुत्र, गणित की अपरिचित प्रतिभा, "वकील"Microsoft, व्यावहारिक परोपकारी, बाएँ-दाएँ
- विज्ञापन -
साइन अप करें
के बारे में सूचित करें
अतिथि

0 टिप्पणियाँ
एंबेडेड समीक्षा
सभी टिप्पणियाँ देखें
अपडेट के लिए सब्सक्राइब करें