गुरूवार, 9 मई 2024

डेस्कटॉप v4.2.1

Root Nationउत्तरएनालिटिक्सआर्टिफिशियल इंटेलिजेंस की छह आज्ञाएँ

आर्टिफिशियल इंटेलिजेंस की छह आज्ञाएँ

-

आने वाले वर्ष कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के तेजी से विकास द्वारा चिह्नित किए जाएंगे। शायद एआई के निर्माण और उपयोग के लिए स्पष्ट रूप से परिभाषित ढांचे को पेश करना आवश्यक है? क्या 6 महीने का अनुभव एक ऐसी तकनीक को विनियमित करने के लिए पर्याप्त है जो अभी तक प्रयोगशाला से बाहर नहीं निकली है? आर्टिफिशियल इंटेलिजेंस की बात आने पर यह सवाल विशेषज्ञों और पत्रकारों के मुंह से तेजी से आ रहा है। आर्टिफिशियल इंटेलिजेंस को विनियमित करने के उपाय करने के लिए आवाज़ें और कॉल - उपयोगकर्ता स्तर पर और परियोजना विकास के स्तर पर - अधिक से अधिक बार सुनी जा रही हैं। ऐसी अपीलों का इतिहास बहुत पहले शुरू हुआ था।

डिजिटल स्पेस में आर्टिफिशियल इंटेलिजेंस की सर्वव्यापी उपस्थिति और सबसे ऊपर, ऐसी सामग्री बनाने में सक्षम मॉडल जो मानव द्वारा बनाई गई सामग्री से अलग नहीं होगी, बहुत अलग भावनाओं को उद्घाटित करती है। एक ओर, हमारे पास उत्साही लोगों का एक समूह है जो एआई में भविष्य देखते हैं और इसकी अपेक्षाकृत सीमित क्षमताओं के बावजूद (क्योंकि एआई सोचता नहीं है, और अक्सर इंटरनेट से जानकारी लेता है), इसे कई कार्यों को सौंपने से डरते नहीं हैं . आड़ के दूसरी तरफ एक समूह है जो कृत्रिम बुद्धिमत्ता के विकास में मौजूदा रुझानों के बारे में अपनी शंका और चिंता व्यक्त करता है।

एआई अभिधारणा

दो समूहों के बीच का पुल कृत्रिम बुद्धिमत्ता शोधकर्ता हैं, जो एक ओर, कृत्रिम बुद्धिमत्ता के आसपास की वास्तविकता को सकारात्मक रूप से कैसे प्रभावित करते हैं, इसके कई उदाहरण देते हैं। साथ ही, वे समझते हैं कि अभी अपनी ख्याति पर आराम करना जल्दबाजी होगी, और एक बड़ी तकनीकी छलांग कई चुनौतियों और बड़ी जिम्मेदारी लाती है। इस रवैये का एक स्पष्ट उदाहरण सेंट्रल फ्लोरिडा विश्वविद्यालय से डॉ. ओज़लेम गैरीबे के नेतृत्व में कृत्रिम बुद्धि और मशीन सीखने के शोधकर्ताओं का एक अंतरराष्ट्रीय समूह है। दुनिया भर के 47 वैज्ञानिकों द्वारा लिखित 26-पृष्ठ का प्रकाशन, छह चुनौतियों की पहचान करता है और उनका वर्णन करता है, जिन्हें अनुसंधान संस्थानों, कंपनियों और निगमों को अपने मॉडल (और उनका उपयोग करने वाले सॉफ़्टवेयर) को सुरक्षित बनाने के लिए संबोधित करना चाहिए।

हां, यह कृत्रिम बुद्धि के भविष्य को समझने के लिए महत्वपूर्ण व्याख्याओं वाला एक गंभीर वैज्ञानिक कार्य है। कौन रुचि रखता है, स्वतंत्र रूप से कर सकता है इस वैज्ञानिक रिपोर्ट को पढ़ें और अपने निष्कर्ष निकालें। आसान शब्दों में कहें तो वैज्ञानिकों ने आर्टिफिशियल इंटेलिजेंस की 6 आज्ञाओं की पहचान की है। एआई के सभी विकास और कार्य उनके अनुरूप होने चाहिए ताकि यह लोगों और दुनिया के लिए सुरक्षित हो।

एआई अभिधारणा

इस वैज्ञानिक कार्य के आधार पर लिखे गए अपने लेख में, मैं मुख्य सिद्धांतों, कानूनों को तैयार करने की कोशिश करूंगा, जिसके अनुसार कृत्रिम बुद्धिमत्ता का अस्तित्व और विकास होना चाहिए। हां, यह कृत्रिम बुद्धिमत्ता के विकास के बारे में वैज्ञानिकों के निष्कर्षों की मेरी लगभग मुक्त व्याख्या है और उन्हें बाइबिल संस्करण में बोलने के लिए प्रस्तुत करने का प्रयास है। लेकिन इस तरह मैं आपको सम्मानित वैज्ञानिकों के इस वैज्ञानिक कार्य से परिचित कराना चाहता था।

यह भी दिलचस्प: बिल्डिंग एआई: रेस का नेतृत्व कौन कर रहा है?

पहला नियम: मानव कल्याण

शोधकर्ताओं का पहला सिद्धांत मानव कल्याण पर कृत्रिम बुद्धि के काम पर ध्यान केंद्रित करना है। "मानवीय मूल्यों, सामान्य ज्ञान और नैतिकता" की कमी के कारण, कृत्रिम बुद्धि इस तरह से कार्य कर सकती है जिससे मानव कल्याण में महत्वपूर्ण गिरावट आएगी। समस्याएं एआई की अलौकिक क्षमताओं का परिणाम हो सकती हैं (उदाहरण के लिए, एआई कितनी आसानी से इंसानों को हरा देती है - और न केवल शतरंज में), बल्कि यह तथ्य भी है कि एआई खुद के लिए नहीं सोचती है, और इसलिए पक्षपात या "फ़िल्टर आउट" करने में सक्षम नहीं है। स्पष्ट गलतियाँ।

एआई पोस्टुलेट

- विज्ञापन -

शोधकर्ताओं ने ध्यान दिया कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों में अत्यधिक विश्वास लोगों की भलाई को नकारात्मक रूप से प्रभावित कर सकता है। एक ऐसा समाज जिसे आर्टिफिशियल इंटेलिजेंस एल्गोरिदम वास्तव में कैसे काम करता है, इस बारे में बहुत कम समझ है कि वह उस पर अधिक भरोसा करता है, या इसके विपरीत, एक निश्चित मॉडल, विशेष रूप से चैटबॉट्स द्वारा उत्पन्न सामग्री के प्रति नकारात्मक रवैया रखता है। इन और अन्य कारकों को ध्यान में रखते हुए, गैरीबे की टीम मानव कल्याण को भविष्य के एआई-मानव संबंधों के केंद्र में रखने का आह्वान करती है।

यह भी पढ़ें: चैटजीपीटी: एक साधारण उपयोगकर्ता गाइड

दूसरा कानून: जिम्मेदारी

जवाबदेही एक ऐसा शब्द है जो एआई दुनिया में इस संदर्भ में पॉप अप करता रहता है कि हम मशीन लर्निंग का उपयोग किस लिए करते हैं और एआई मॉडल और एल्गोरिदम को कैसे विकसित और प्रशिक्षित किया जाता है। अंतरराष्ट्रीय टीम इस बात पर जोर देती है कि आर्टिफिशियल इंटेलिजेंस का डिजाइन, विकास और कार्यान्वयन विशेष रूप से अच्छे इरादों के साथ किया जाना चाहिए।

एआई पोस्टुलेट

उनकी राय में, जिम्मेदारी को न केवल तकनीकी बल्कि कानूनी और नैतिक संदर्भ में भी माना जाना चाहिए। प्रौद्योगिकी को न केवल इसकी प्रभावशीलता के दृष्टिकोण से बल्कि इसके उपयोग के संदर्भ में भी माना जाना चाहिए।

"उन्नत मशीन लर्निंग तकनीकों की शुरुआत के साथ, यह समझना तेजी से महत्वपूर्ण हो जाता है कि निर्णय कैसे किया गया और इसके लिए कौन जिम्मेदार है” - शोधकर्ताओं को लिखें।

तीसरा नियम: गोपनीयता

गोपनीयता एक ऐसा विषय है जो तकनीक के बारे में हर चर्चा में उलटा असर डालता है। खासतौर पर तब जब सोशल नेटवर्क पर हर चीज की चर्चा हो। हालाँकि, यह कृत्रिम बुद्धिमत्ता के लिए अत्यंत महत्वपूर्ण है क्योंकि यह डेटाबेस के बिना मौजूद नहीं है। और डेटाबेस क्या होते हैं?

वैज्ञानिक उन्हें "बुनियादी बिल्डिंग ब्लॉक्स का एक अमूर्त रूप बताते हैं जो दुनिया को देखने के तरीके को बनाते हैं।" ये ब्लॉक आमतौर पर सांसारिक मूल्य होते हैं: रंग, आकार, बनावट, दूरी, समय। जबकि संकीर्ण एआई एक ही लक्ष्य पर केंद्रित है, जैसे किसी दिए गए प्रकाश की तीव्रता पर शटर किस डिग्री तक खुलता है, सार्वजनिक रूप से उपलब्ध उद्देश्य डेटा का उपयोग करता है, व्यापक अनुप्रयोगों में एआई (उदाहरण के लिए, टेक्स्ट-टू-इमेज मॉडल जैसे मिडजर्नी, या भाषा मॉडल जैसे चैटजीपीटी) लोगों के बारे में और उनके द्वारा बनाए गए डेटा का उपयोग कर सकते हैं। प्रेस में लेख, किताबें, चित्र और इंटरनेट पर प्रकाशित तस्वीरों का भी उल्लेख किया जाना चाहिए। आर्टिफिशियल इंटेलिजेंस एल्गोरिदम की हर चीज तक पहुंच है, क्योंकि हमने खुद उन्हें यह दिया है। नहीं तो उसे कुछ पता नहीं चलेगा और किसी भी सवाल का जवाब नहीं देगा।

एआई पोस्टुलेट

उपयोगकर्ता डेटा मौलिक रूप से उन दोनों लोगों को प्रभावित करता है जिनके बारे में यह डेटा एकत्र किया जाता है और सिस्टम में वे लोग जहां आर्टिफिशियल इंटेलिजेंस एल्गोरिदम को लागू किया जाएगा।

इसलिए, तीसरी चुनौती निजता की व्यापक समझ और ऐसे अधिकारों के प्रावधान से संबंधित है जैसे अकेले रहने का अधिकार, स्वयं तक पहुंच को सीमित करने का अधिकार, किसी के व्यक्तिगत जीवन या व्यवसाय की गोपनीयता का अधिकार, व्यक्तिगत नियंत्रण का अधिकार सूचना, अर्थात्, किसी के व्यक्तित्व, व्यक्तित्व और गरिमा की रक्षा करने का अधिकार। यह सब एल्गोरिदम में लिखा जाना चाहिए, अन्यथा गोपनीयता बस मौजूद नहीं होगी, और एआई एल्गोरिदम का उपयोग धोखाधड़ी योजनाओं के साथ-साथ आपराधिक अपराधों में भी किया जा सकता है।

यह भी पढ़ें: ChatGPT का उपयोग करने के 7 सबसे अच्छे तरीके

चौथा नियम: परियोजना संरचना

आर्टिफिशियल इंटेलिजेंस अत्यंत सरल और एकल-उद्देश्यीय हो सकता है, लेकिन व्यापक और बहु-कार्य प्रकृति वाले बड़े मॉडल के मामले में, समस्या न केवल डेटा गोपनीयता है, बल्कि डिज़ाइन संरचना भी है।

उदाहरण के लिए, GPT-4, OpenAI का नवीनतम आर्टिफिशियल इंटेलिजेंस मॉडल, इसके आकार और AI दुनिया (और उससे आगे) पर प्रभाव के बावजूद, पूरी तरह से सार्वजनिक प्रलेखन नहीं है। यही है, हमें इस बात की समझ नहीं है कि डेवलपर्स के लिए अंतिम लक्ष्य क्या हैं, वे अंतिम परिणाम में क्या प्राप्त करना चाहते हैं। इसलिए, हम इस एआई मॉडल के उपयोग से जुड़े जोखिमों का पूरी तरह आकलन नहीं कर सकते हैं। दूसरी ओर, GPT-3, 4chan फोरम के डेटा पर प्रशिक्षित है, एक ऐसा मॉडल है जिसके साथ आप निश्चित रूप से बातचीत नहीं करना चाहते हैं। 4चान फोरम इंटरनेट पर सबसे दिलचस्प घटनाओं में से एक है। यह पूर्ण, कुल अराजकता का एक उदाहरण है, जो व्यवहार में किसी भी ढांचे से सीमित नहीं है। यहीं पर Anonymous या LulzSec जैसे हैकिंग ग्रुप बनाए गए। यह कई सबसे लोकप्रिय मेम्स का स्रोत है, विवादास्पद विषयों पर चर्चा करने और इससे भी अधिक विवादास्पद राय प्रकाशित करने का स्थान है। हालांकि अंग्रेजी भाषा का इमेजबोर्ड नोट करता है कि "अब तक यह कानूनी है", यह कुछ हद तक संदिग्ध है, यह देखते हुए कि 4chan कभी-कभी नस्लवादी, नाजी और सेक्सिस्ट सामग्री सहित मीडिया के साथ जुड़ जाता है।

एआई पोस्टुलेट

- विज्ञापन -

प्रोफ़ेसर गैरीबे की टीम चाहती है कि आर्टिफ़िशियल इंटेलिजेंस का हर मॉडल एक स्पष्ट रूप से परिभाषित ढांचे के भीतर काम करे. न केवल उस व्यक्ति की भलाई के कारण जिसके साथ एआई बातचीत करता है, बल्कि मॉडल के उपयोग से जुड़े जोखिमों का आकलन करने की क्षमता के कारण भी। किसी भी परियोजना की संरचना में विभिन्न सांस्कृतिक समूहों और हितधारकों की जरूरतों, मूल्यों और इच्छाओं के प्रति सम्मान शामिल होना चाहिए। एआई के निर्माण, प्रशिक्षण और फाइन-ट्यूनिंग की प्रक्रिया को मानव कल्याण पर केंद्रित होना चाहिए, और अंतिम उत्पाद - एआई मॉडल - को मानव समुदाय की उत्पादकता को बढ़ाने और सुधारने पर ध्यान केंद्रित करना चाहिए। जिन मॉडलों में जोखिमों की पहचान नहीं की जा सकती है, उनकी पहुंच सीमित या नियंत्रित होनी चाहिए। उन्हें मानवता के लिए खतरा नहीं होना चाहिए, बल्कि इसके विपरीत, समग्र रूप से मनुष्य और समाज के विकास में योगदान देना चाहिए।

यह भी पढ़ें: Twitter एलोन मस्क के हाथों में - एक खतरा या "सुधार"?

पांचवां कानून: शासन और स्वतंत्र निरीक्षण

कृत्रिम बुद्धिमत्ता एल्गोरिदम ने वस्तुतः केवल एक वर्ष में दुनिया को बदल दिया। गूगल और बिंग द्वारा बार्ड का प्रीमियर Microsoft स्टॉक एक्सचेंज पर दोनों दिग्गजों के शेयरों पर काफी असर पड़ा। वैसे, उन्होंने शेयरों की पृष्ठभूमि के खिलाफ भी इन कंपनियों के शेयरों की वृद्धि में योगदान दिया Apple. स्कूली छात्रों द्वारा ChatGPT का सक्रिय रूप से उपयोग किया जाना शुरू हो गया है, वे इसके साथ संवाद करते हैं, इसकी जांच करते हैं और प्रश्न पूछते हैं। सबसे महत्वपूर्ण बात यह है कि उनमें आत्म-सीखने, अपनी गलतियों को सुधारने की क्षमता है। कुछ देशों की सरकारों में आर्टिफिशियल इंटेलिजेंस काम करना भी शुरू कर रहा है। यह रोमानिया के प्रधान मंत्री निकोले चुका का मामला है एक आभासी किराए पर लिया एक सहायक जो उसे समाज की जरूरतों के बारे में सूचित करेगा। यानी आर्टिफिशियल इंटेलिजेंस हमारे जीवन में तेजी से महत्वपूर्ण भूमिका निभाता है।

ऐ

कृत्रिम बुद्धिमत्ता, मानव और पर्यावरण के बीच लगातार बढ़ती अन्योन्याश्रितता को देखते हुए, वैज्ञानिक इसे शासी निकाय बनाने और इसके विकास की स्वतंत्र निगरानी करने के लिए आवश्यक मानते हैं। ये निकाय कृत्रिम बुद्धिमत्ता के पूरे जीवन चक्र को नियंत्रित करेंगे: विचार से लेकर विकास और कार्यान्वयन तक। अधिकारी एआई के विभिन्न मॉडलों को ठीक से परिभाषित करेंगे और कृत्रिम बुद्धिमत्ता और सामाजिक जीवन के विषयों से संबंधित मामलों पर विचार करेंगे। यानी आर्टिफिशियल इंटेलिजेंस अदालती मामलों के साथ-साथ मुकदमों का विषय भी बन सकता है। हालांकि, निश्चित रूप से, उसे व्यक्तिगत रूप से नहीं, बल्कि उसके डेवलपर्स को।

यह भी पढ़ें: न्यूरालिंक के बारे में सब कुछ: साइबरपंक पागलपन की शुरुआत?

छठा नियम: मनुष्य और कृत्रिम बुद्धि की परस्पर क्रिया

आर्टिफिशियल इंटेलिजेंस कार्यक्रमों में, हर कोई अपने लिए कुछ खोज सकता है: पाठ उत्पन्न करें, छवियों में सामग्री का पता लगाएं, प्रश्नों का उत्तर दें, छवियां उत्पन्न करें, फ़ोटो में लोगों को पहचानें, डेटा का विश्लेषण करें। कृत्रिम बुद्धिमत्ता को कानूनी और नैतिक मानकों के अनुकूल बनाने की कोशिश कर रहे लोगों के लिए ये कई उपयोग न केवल एक चिंता का विषय हैं। कई लोगों को एआई मॉडल द्वारा श्रम बाजार से विस्थापित होने का डर है। क्योंकि आर्टिफिशियल इंटेलिजेंस एल्गोरिदम एक ही काम को तेजी से, सस्ता और शायद एक व्यक्ति से भी बेहतर करने में सक्षम होगा। वहीं, ऐसे लोग भी हैं जो अपने काम में एआई पर भरोसा करते हैं, यानी आर्टिफिशियल इंटेलिजेंस आज उनके लिए पहले से ही एक अनिवार्य सहायक है।

ऐ

लेकिन वैज्ञानिकों द्वारा बताए गए अध्ययनों से यह स्पष्ट है कि सस्ते कृत्रिम श्रम द्वारा लोगों का प्रतिस्थापन अभी काफी दूर है। इसके बावजूद, वे पहले से ही मानव और कृत्रिम बुद्धि के बीच बातचीत का एक सख्त पदानुक्रम स्थापित करने की आवश्यकता पर जोर दे रहे हैं। उनकी राय में मनुष्य को कृत्रिम बुद्धिमत्ता से ऊपर रखा जाना चाहिए। किसी व्यक्ति की संज्ञानात्मक क्षमताओं के संबंध में उसकी भावनाओं, सामाजिक संबंधों, विचारों, योजना और वस्तुओं के साथ बातचीत को ध्यान में रखते हुए कृत्रिम बुद्धिमत्ता का निर्माण किया जाना चाहिए। अर्थात्, सभी स्थितियों में, यह वह व्यक्ति है जिसे कृत्रिम बुद्धिमत्ता पर खड़ा होना चाहिए, मॉडल द्वारा बनाए गए व्यवहार और सामग्री को नियंत्रित करना चाहिए और इसके लिए जिम्मेदार होना चाहिए। सरल शब्दों में, यहां तक ​​​​कि सबसे उन्नत एआई को भी एक व्यक्ति का पालन करना चाहिए और इसकी अनुमति से परे नहीं जाना चाहिए, ताकि इसके निर्माता को नुकसान न पहुंचे।

यह भी पढ़ें: कैसे यूक्रेन युद्ध के समय स्टारलिंक का उपयोग और अनुकूलन करता है

исновки

हां, कोई कहेगा कि वैज्ञानिकों ने अपनी रिपोर्ट में कुछ भी महत्वपूर्ण और नया संकेत नहीं दिया। इस बारे में सभी लंबे समय से बात कर रहे हैं। लेकिन पहले से ही एआई को कानूनों के कुछ ढांचे में रखना जरूरी है। GPT-4 के लिए पहुँचना आँख बंद करके चाकू तक पहुँचने जैसा है। वे हमसे महत्वपूर्ण जानकारी छिपाते हैं। आर्टिफिशियल इंटेलिजेंस में सभी विकास, और विशेष रूप से ओपन एआई से चैटजीपीटी परियोजना, अक्सर मुझे एक छोटे बच्चे की परवरिश की याद दिलाती है। कभी-कभी ऐसा लगता है कि यह विदेशी मूल का बच्चा है। हां, एक एलियन, लेकिन वह अभी भी एक बच्चा है जो सीखता है, गलतियाँ करता है, कभी-कभी अनुचित व्यवहार करता है, चिड़चिड़ा होता है, अपने माता-पिता से बहस करता है। हालांकि यह बहुत तेजी से बढ़ता और विकसित होता है।

ऐ

मानवता अपने विकास के साथ नहीं रह सकती है, और चीजें नियंत्रण से बाहर हो सकती हैं। इसलिए, मानवता को पहले से ही यह समझने की जरूरत है कि हम यह सब क्यों विकसित कर रहे हैं, अंतिम लक्ष्यों को जानने के लिए, "जिम्मेदार माता-पिता" बनें, क्योंकि अन्यथा "बच्चा" बस अपने "माता-पिता" को नष्ट कर सकता है।

यह भी पढ़ें: 

Yuri Svitlyk
Yuri Svitlyk
कार्पेथियन पर्वत के पुत्र, गणित की अपरिचित प्रतिभा, "वकील"Microsoft, व्यावहारिक परोपकारी, बाएँ-दाएँ
- विज्ञापन -
साइन अप करें
के बारे में सूचित करें
अतिथि

0 टिप्पणियाँ
एंबेडेड समीक्षा
सभी टिप्पणियाँ देखें
अपडेट के लिए सब्सक्राइब करें