श्रेणियाँ: एनालिटिक्स

आर्टिफिशियल इंटेलिजेंस की छह आज्ञाएँ

आने वाले वर्ष कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के तेजी से विकास द्वारा चिह्नित किए जाएंगे। शायद एआई के निर्माण और उपयोग के लिए स्पष्ट रूप से परिभाषित ढांचे को पेश करना आवश्यक है? क्या 6 महीने का अनुभव एक ऐसी तकनीक को विनियमित करने के लिए पर्याप्त है जो अभी तक प्रयोगशाला से बाहर नहीं निकली है? आर्टिफिशियल इंटेलिजेंस की बात आने पर यह सवाल विशेषज्ञों और पत्रकारों के मुंह से तेजी से आ रहा है। आर्टिफिशियल इंटेलिजेंस को विनियमित करने के उपाय करने के लिए आवाज़ें और कॉल - उपयोगकर्ता स्तर पर और परियोजना विकास के स्तर पर - अधिक से अधिक बार सुनी जा रही हैं। ऐसी अपीलों का इतिहास बहुत पहले शुरू हुआ था।

डिजिटल स्पेस में आर्टिफिशियल इंटेलिजेंस की सर्वव्यापी उपस्थिति और सबसे ऊपर, ऐसी सामग्री बनाने में सक्षम मॉडल जो मानव द्वारा बनाई गई सामग्री से अलग नहीं होगी, बहुत अलग भावनाओं को उद्घाटित करती है। एक ओर, हमारे पास उत्साही लोगों का एक समूह है जो एआई में भविष्य देखते हैं और इसकी अपेक्षाकृत सीमित क्षमताओं के बावजूद (क्योंकि एआई सोचता नहीं है, और अक्सर इंटरनेट से जानकारी लेता है), इसे कई कार्यों को सौंपने से डरते नहीं हैं . आड़ के दूसरी तरफ एक समूह है जो कृत्रिम बुद्धिमत्ता के विकास में मौजूदा रुझानों के बारे में अपनी शंका और चिंता व्यक्त करता है।

दो समूहों के बीच का पुल कृत्रिम बुद्धिमत्ता शोधकर्ता हैं, जो एक ओर, कृत्रिम बुद्धिमत्ता के आसपास की वास्तविकता को सकारात्मक रूप से कैसे प्रभावित करते हैं, इसके कई उदाहरण देते हैं। साथ ही, वे समझते हैं कि अभी अपनी ख्याति पर आराम करना जल्दबाजी होगी, और एक बड़ी तकनीकी छलांग कई चुनौतियों और बड़ी जिम्मेदारी लाती है। इस रवैये का एक स्पष्ट उदाहरण सेंट्रल फ्लोरिडा विश्वविद्यालय से डॉ. ओज़लेम गैरीबे के नेतृत्व में कृत्रिम बुद्धि और मशीन सीखने के शोधकर्ताओं का एक अंतरराष्ट्रीय समूह है। दुनिया भर के 47 वैज्ञानिकों द्वारा लिखित 26-पृष्ठ का प्रकाशन, छह चुनौतियों की पहचान करता है और उनका वर्णन करता है, जिन्हें अनुसंधान संस्थानों, कंपनियों और निगमों को अपने मॉडल (और उनका उपयोग करने वाले सॉफ़्टवेयर) को सुरक्षित बनाने के लिए संबोधित करना चाहिए।

हां, यह कृत्रिम बुद्धि के भविष्य को समझने के लिए महत्वपूर्ण व्याख्याओं वाला एक गंभीर वैज्ञानिक कार्य है। कौन रुचि रखता है, स्वतंत्र रूप से कर सकता है इस वैज्ञानिक रिपोर्ट को पढ़ें और अपने निष्कर्ष निकालें। आसान शब्दों में कहें तो वैज्ञानिकों ने आर्टिफिशियल इंटेलिजेंस की 6 आज्ञाओं की पहचान की है। एआई के सभी विकास और कार्य उनके अनुरूप होने चाहिए ताकि यह लोगों और दुनिया के लिए सुरक्षित हो।

इस वैज्ञानिक कार्य के आधार पर लिखे गए अपने लेख में, मैं मुख्य सिद्धांतों, कानूनों को तैयार करने की कोशिश करूंगा, जिसके अनुसार कृत्रिम बुद्धिमत्ता का अस्तित्व और विकास होना चाहिए। हां, यह कृत्रिम बुद्धिमत्ता के विकास के बारे में वैज्ञानिकों के निष्कर्षों की मेरी लगभग मुक्त व्याख्या है और उन्हें बाइबिल संस्करण में बोलने के लिए प्रस्तुत करने का प्रयास है। लेकिन इस तरह मैं आपको सम्मानित वैज्ञानिकों के इस वैज्ञानिक कार्य से परिचित कराना चाहता था।

यह भी दिलचस्प: बिल्डिंग एआई: रेस का नेतृत्व कौन कर रहा है?

पहला नियम: मानव कल्याण

शोधकर्ताओं का पहला सिद्धांत मानव कल्याण पर कृत्रिम बुद्धि के काम पर ध्यान केंद्रित करना है। "मानवीय मूल्यों, सामान्य ज्ञान और नैतिकता" की कमी के कारण, कृत्रिम बुद्धि इस तरह से कार्य कर सकती है जिससे मानव कल्याण में महत्वपूर्ण गिरावट आएगी। समस्याएं एआई की अलौकिक क्षमताओं का परिणाम हो सकती हैं (उदाहरण के लिए, एआई कितनी आसानी से इंसानों को हरा देती है - और न केवल शतरंज में), बल्कि यह तथ्य भी है कि एआई खुद के लिए नहीं सोचती है, और इसलिए पक्षपात या "फ़िल्टर आउट" करने में सक्षम नहीं है। स्पष्ट गलतियाँ।

शोधकर्ताओं ने ध्यान दिया कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों में अत्यधिक विश्वास लोगों की भलाई को नकारात्मक रूप से प्रभावित कर सकता है। एक ऐसा समाज जिसे आर्टिफिशियल इंटेलिजेंस एल्गोरिदम वास्तव में कैसे काम करता है, इस बारे में बहुत कम समझ है कि वह उस पर अधिक भरोसा करता है, या इसके विपरीत, एक निश्चित मॉडल, विशेष रूप से चैटबॉट्स द्वारा उत्पन्न सामग्री के प्रति नकारात्मक रवैया रखता है। इन और अन्य कारकों को ध्यान में रखते हुए, गैरीबे की टीम मानव कल्याण को भविष्य के एआई-मानव संबंधों के केंद्र में रखने का आह्वान करती है।

यह भी पढ़ें: चैटजीपीटी: एक साधारण उपयोगकर्ता गाइड

दूसरा कानून: जिम्मेदारी

जवाबदेही एक ऐसा शब्द है जो एआई दुनिया में इस संदर्भ में पॉप अप करता रहता है कि हम मशीन लर्निंग का उपयोग किस लिए करते हैं और एआई मॉडल और एल्गोरिदम को कैसे विकसित और प्रशिक्षित किया जाता है। अंतरराष्ट्रीय टीम इस बात पर जोर देती है कि आर्टिफिशियल इंटेलिजेंस का डिजाइन, विकास और कार्यान्वयन विशेष रूप से अच्छे इरादों के साथ किया जाना चाहिए।

उनकी राय में, जिम्मेदारी को न केवल तकनीकी बल्कि कानूनी और नैतिक संदर्भ में भी माना जाना चाहिए। प्रौद्योगिकी को न केवल इसकी प्रभावशीलता के दृष्टिकोण से बल्कि इसके उपयोग के संदर्भ में भी माना जाना चाहिए।

"उन्नत मशीन लर्निंग तकनीकों की शुरुआत के साथ, यह समझना तेजी से महत्वपूर्ण हो जाता है कि निर्णय कैसे किया गया और इसके लिए कौन जिम्मेदार है” - शोधकर्ताओं को लिखें।

तीसरा नियम: गोपनीयता

गोपनीयता एक ऐसा विषय है जो तकनीक के बारे में हर चर्चा में उलटा असर डालता है। खासतौर पर तब जब सोशल नेटवर्क पर हर चीज की चर्चा हो। हालाँकि, यह कृत्रिम बुद्धिमत्ता के लिए अत्यंत महत्वपूर्ण है क्योंकि यह डेटाबेस के बिना मौजूद नहीं है। और डेटाबेस क्या होते हैं?

वैज्ञानिक उन्हें "बुनियादी बिल्डिंग ब्लॉक्स का एक अमूर्त रूप बताते हैं जो दुनिया को देखने के तरीके को बनाते हैं।" ये ब्लॉक आमतौर पर सांसारिक मूल्य होते हैं: रंग, आकार, बनावट, दूरी, समय। जबकि संकीर्ण एआई एक ही लक्ष्य पर केंद्रित है, जैसे किसी दिए गए प्रकाश की तीव्रता पर शटर किस डिग्री तक खुलता है, सार्वजनिक रूप से उपलब्ध उद्देश्य डेटा का उपयोग करता है, व्यापक अनुप्रयोगों में एआई (उदाहरण के लिए, टेक्स्ट-टू-इमेज मॉडल जैसे मिडजर्नी, या भाषा मॉडल जैसे चैटजीपीटी) लोगों के बारे में और उनके द्वारा बनाए गए डेटा का उपयोग कर सकते हैं। प्रेस में लेख, किताबें, चित्र और इंटरनेट पर प्रकाशित तस्वीरों का भी उल्लेख किया जाना चाहिए। आर्टिफिशियल इंटेलिजेंस एल्गोरिदम की हर चीज तक पहुंच है, क्योंकि हमने खुद उन्हें यह दिया है। नहीं तो उसे कुछ पता नहीं चलेगा और किसी भी सवाल का जवाब नहीं देगा।

उपयोगकर्ता डेटा मौलिक रूप से उन दोनों लोगों को प्रभावित करता है जिनके बारे में यह डेटा एकत्र किया जाता है और सिस्टम में वे लोग जहां आर्टिफिशियल इंटेलिजेंस एल्गोरिदम को लागू किया जाएगा।

इसलिए, तीसरी चुनौती निजता की व्यापक समझ और ऐसे अधिकारों के प्रावधान से संबंधित है जैसे अकेले रहने का अधिकार, स्वयं तक पहुंच को सीमित करने का अधिकार, किसी के व्यक्तिगत जीवन या व्यवसाय की गोपनीयता का अधिकार, व्यक्तिगत नियंत्रण का अधिकार सूचना, अर्थात्, किसी के व्यक्तित्व, व्यक्तित्व और गरिमा की रक्षा करने का अधिकार। यह सब एल्गोरिदम में लिखा जाना चाहिए, अन्यथा गोपनीयता बस मौजूद नहीं होगी, और एआई एल्गोरिदम का उपयोग धोखाधड़ी योजनाओं के साथ-साथ आपराधिक अपराधों में भी किया जा सकता है।

यह भी पढ़ें: ChatGPT का उपयोग करने के 7 सबसे अच्छे तरीके

चौथा नियम: परियोजना संरचना

आर्टिफिशियल इंटेलिजेंस अत्यंत सरल और एकल-उद्देश्यीय हो सकता है, लेकिन व्यापक और बहु-कार्य प्रकृति वाले बड़े मॉडल के मामले में, समस्या न केवल डेटा गोपनीयता है, बल्कि डिज़ाइन संरचना भी है।

उदाहरण के लिए, GPT-4, OpenAI का नवीनतम आर्टिफिशियल इंटेलिजेंस मॉडल, इसके आकार और AI दुनिया (और उससे आगे) पर प्रभाव के बावजूद, पूरी तरह से सार्वजनिक प्रलेखन नहीं है। यही है, हमें इस बात की समझ नहीं है कि डेवलपर्स के लिए अंतिम लक्ष्य क्या हैं, वे अंतिम परिणाम में क्या प्राप्त करना चाहते हैं। इसलिए, हम इस एआई मॉडल के उपयोग से जुड़े जोखिमों का पूरी तरह आकलन नहीं कर सकते हैं। दूसरी ओर, GPT-3, 4chan फोरम के डेटा पर प्रशिक्षित है, एक ऐसा मॉडल है जिसके साथ आप निश्चित रूप से बातचीत नहीं करना चाहते हैं। 4चान फोरम इंटरनेट पर सबसे दिलचस्प घटनाओं में से एक है। यह पूर्ण, कुल अराजकता का एक उदाहरण है, जो व्यवहार में किसी भी ढांचे से सीमित नहीं है। यहीं पर Anonymous या LulzSec जैसे हैकिंग ग्रुप बनाए गए। यह कई सबसे लोकप्रिय मेम्स का स्रोत है, विवादास्पद विषयों पर चर्चा करने और इससे भी अधिक विवादास्पद राय प्रकाशित करने का स्थान है। हालांकि अंग्रेजी भाषा का इमेजबोर्ड नोट करता है कि "अब तक यह कानूनी है", यह कुछ हद तक संदिग्ध है, यह देखते हुए कि 4chan कभी-कभी नस्लवादी, नाजी और सेक्सिस्ट सामग्री सहित मीडिया के साथ जुड़ जाता है।

प्रोफ़ेसर गैरीबे की टीम चाहती है कि आर्टिफ़िशियल इंटेलिजेंस का हर मॉडल एक स्पष्ट रूप से परिभाषित ढांचे के भीतर काम करे. न केवल उस व्यक्ति की भलाई के कारण जिसके साथ एआई बातचीत करता है, बल्कि मॉडल के उपयोग से जुड़े जोखिमों का आकलन करने की क्षमता के कारण भी। किसी भी परियोजना की संरचना में विभिन्न सांस्कृतिक समूहों और हितधारकों की जरूरतों, मूल्यों और इच्छाओं के प्रति सम्मान शामिल होना चाहिए। एआई के निर्माण, प्रशिक्षण और फाइन-ट्यूनिंग की प्रक्रिया को मानव कल्याण पर केंद्रित होना चाहिए, और अंतिम उत्पाद - एआई मॉडल - को मानव समुदाय की उत्पादकता को बढ़ाने और सुधारने पर ध्यान केंद्रित करना चाहिए। जिन मॉडलों में जोखिमों की पहचान नहीं की जा सकती है, उनकी पहुंच सीमित या नियंत्रित होनी चाहिए। उन्हें मानवता के लिए खतरा नहीं होना चाहिए, बल्कि इसके विपरीत, समग्र रूप से मनुष्य और समाज के विकास में योगदान देना चाहिए।

यह भी पढ़ें: Twitter एलोन मस्क के हाथों में - एक खतरा या "सुधार"?

पांचवां कानून: शासन और स्वतंत्र निरीक्षण

कृत्रिम बुद्धिमत्ता एल्गोरिदम ने वस्तुतः केवल एक वर्ष में दुनिया को बदल दिया। गूगल और बिंग द्वारा बार्ड का प्रीमियर Microsoft स्टॉक एक्सचेंज पर दोनों दिग्गजों के शेयरों पर काफी असर पड़ा। वैसे, उन्होंने शेयरों की पृष्ठभूमि के खिलाफ भी इन कंपनियों के शेयरों की वृद्धि में योगदान दिया Apple. स्कूली छात्रों द्वारा ChatGPT का सक्रिय रूप से उपयोग किया जाना शुरू हो गया है, वे इसके साथ संवाद करते हैं, इसकी जांच करते हैं और प्रश्न पूछते हैं। सबसे महत्वपूर्ण बात यह है कि उनमें आत्म-सीखने, अपनी गलतियों को सुधारने की क्षमता है। कुछ देशों की सरकारों में आर्टिफिशियल इंटेलिजेंस काम करना भी शुरू कर रहा है। यह रोमानिया के प्रधान मंत्री निकोले चुका का मामला है एक आभासी किराए पर लिया एक सहायक जो उसे समाज की जरूरतों के बारे में सूचित करेगा। यानी आर्टिफिशियल इंटेलिजेंस हमारे जीवन में तेजी से महत्वपूर्ण भूमिका निभाता है।

कृत्रिम बुद्धिमत्ता, मानव और पर्यावरण के बीच लगातार बढ़ती अन्योन्याश्रितता को देखते हुए, वैज्ञानिक इसे शासी निकाय बनाने और इसके विकास की स्वतंत्र निगरानी करने के लिए आवश्यक मानते हैं। ये निकाय कृत्रिम बुद्धिमत्ता के पूरे जीवन चक्र को नियंत्रित करेंगे: विचार से लेकर विकास और कार्यान्वयन तक। अधिकारी एआई के विभिन्न मॉडलों को ठीक से परिभाषित करेंगे और कृत्रिम बुद्धिमत्ता और सामाजिक जीवन के विषयों से संबंधित मामलों पर विचार करेंगे। यानी आर्टिफिशियल इंटेलिजेंस अदालती मामलों के साथ-साथ मुकदमों का विषय भी बन सकता है। हालांकि, निश्चित रूप से, उसे व्यक्तिगत रूप से नहीं, बल्कि उसके डेवलपर्स को।

यह भी पढ़ें: न्यूरालिंक के बारे में सब कुछ: साइबरपंक पागलपन की शुरुआत?

छठा नियम: मनुष्य और कृत्रिम बुद्धि की परस्पर क्रिया

आर्टिफिशियल इंटेलिजेंस कार्यक्रमों में, हर कोई अपने लिए कुछ खोज सकता है: पाठ उत्पन्न करें, छवियों में सामग्री का पता लगाएं, प्रश्नों का उत्तर दें, छवियां उत्पन्न करें, फ़ोटो में लोगों को पहचानें, डेटा का विश्लेषण करें। कृत्रिम बुद्धिमत्ता को कानूनी और नैतिक मानकों के अनुकूल बनाने की कोशिश कर रहे लोगों के लिए ये कई उपयोग न केवल एक चिंता का विषय हैं। कई लोगों को एआई मॉडल द्वारा श्रम बाजार से विस्थापित होने का डर है। क्योंकि आर्टिफिशियल इंटेलिजेंस एल्गोरिदम एक ही काम को तेजी से, सस्ता और शायद एक व्यक्ति से भी बेहतर करने में सक्षम होगा। वहीं, ऐसे लोग भी हैं जो अपने काम में एआई पर भरोसा करते हैं, यानी आर्टिफिशियल इंटेलिजेंस आज उनके लिए पहले से ही एक अनिवार्य सहायक है।

लेकिन वैज्ञानिकों द्वारा बताए गए अध्ययनों से यह स्पष्ट है कि सस्ते कृत्रिम श्रम द्वारा लोगों का प्रतिस्थापन अभी काफी दूर है। इसके बावजूद, वे पहले से ही मानव और कृत्रिम बुद्धि के बीच बातचीत का एक सख्त पदानुक्रम स्थापित करने की आवश्यकता पर जोर दे रहे हैं। उनकी राय में मनुष्य को कृत्रिम बुद्धिमत्ता से ऊपर रखा जाना चाहिए। किसी व्यक्ति की संज्ञानात्मक क्षमताओं के संबंध में उसकी भावनाओं, सामाजिक संबंधों, विचारों, योजना और वस्तुओं के साथ बातचीत को ध्यान में रखते हुए कृत्रिम बुद्धिमत्ता का निर्माण किया जाना चाहिए। अर्थात्, सभी स्थितियों में, यह वह व्यक्ति है जिसे कृत्रिम बुद्धिमत्ता पर खड़ा होना चाहिए, मॉडल द्वारा बनाए गए व्यवहार और सामग्री को नियंत्रित करना चाहिए और इसके लिए जिम्मेदार होना चाहिए। सरल शब्दों में, यहां तक ​​​​कि सबसे उन्नत एआई को भी एक व्यक्ति का पालन करना चाहिए और इसकी अनुमति से परे नहीं जाना चाहिए, ताकि इसके निर्माता को नुकसान न पहुंचे।

यह भी पढ़ें: कैसे यूक्रेन युद्ध के समय स्टारलिंक का उपयोग और अनुकूलन करता है

исновки

हां, कोई कहेगा कि वैज्ञानिकों ने अपनी रिपोर्ट में कुछ भी महत्वपूर्ण और नया संकेत नहीं दिया। इस बारे में सभी लंबे समय से बात कर रहे हैं। लेकिन पहले से ही एआई को कानूनों के कुछ ढांचे में रखना जरूरी है। GPT-4 के लिए पहुँचना आँख बंद करके चाकू तक पहुँचने जैसा है। वे हमसे महत्वपूर्ण जानकारी छिपाते हैं। आर्टिफिशियल इंटेलिजेंस में सभी विकास, और विशेष रूप से ओपन एआई से चैटजीपीटी परियोजना, अक्सर मुझे एक छोटे बच्चे की परवरिश की याद दिलाती है। कभी-कभी ऐसा लगता है कि यह विदेशी मूल का बच्चा है। हां, एक एलियन, लेकिन वह अभी भी एक बच्चा है जो सीखता है, गलतियाँ करता है, कभी-कभी अनुचित व्यवहार करता है, चिड़चिड़ा होता है, अपने माता-पिता से बहस करता है। हालांकि यह बहुत तेजी से बढ़ता और विकसित होता है।

मानवता अपने विकास के साथ नहीं रह सकती है, और चीजें नियंत्रण से बाहर हो सकती हैं। इसलिए, मानवता को पहले से ही यह समझने की जरूरत है कि हम यह सब क्यों विकसित कर रहे हैं, अंतिम लक्ष्यों को जानने के लिए, "जिम्मेदार माता-पिता" बनें, क्योंकि अन्यथा "बच्चा" बस अपने "माता-पिता" को नष्ट कर सकता है।

यह भी पढ़ें: 

Share
Yuri Svitlyk

कार्पेथियन पर्वत के पुत्र, गणित की अपरिचित प्रतिभा, "वकील"Microsoft, व्यावहारिक परोपकारी, बाएँ-दाएँ

एक जवाब लिखें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा। आवश्यक फ़ील्ड इस तरह चिह्नित हैं*