शुक्रवार, 3 मई 2024

डेस्कटॉप v4.2.1

Root Nationसमाचारआईटी अखबारसुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस का प्रबंधन करना असंभव होगा

सुपर इंटेलिजेंट आर्टिफिशियल इंटेलिजेंस का प्रबंधन करना असंभव होगा

-

आर्टिफिशियल इंटेलिजेंस के मानवता को उखाड़ फेंकने के विचार पर दशकों से बहस चल रही है और जनवरी 2021 में वैज्ञानिकों ने इस पर अपना फैसला सुनाया कि क्या हम एक उच्च-स्तरीय कंप्यूटर अधीक्षण को नियंत्रित कर सकते हैं। जवाब? लगभग निश्चित रूप से नहीं।

समस्या यह है कि मानव समझ से परे एक अतिमानस को नियंत्रित करने के लिए उस अतिमानस के अनुकरण की आवश्यकता होगी जिसका हम विश्लेषण कर सकें। लेकिन अगर हम इसे समझने में सक्षम नहीं हैं, तो ऐसा अनुकरण बनाना असंभव है।

"मनुष्यों को कोई नुकसान न करें" जैसे नियम तब तक स्थापित नहीं किए जा सकते जब तक हम यह नहीं समझते कि कृत्रिम बुद्धिमत्ता (एआई) किन परिदृश्यों के साथ आएगी, 2021 के एक पेपर के लेखकों का मानना ​​​​है। जैसे ही कंप्यूटर सिस्टम हमारे प्रोग्रामर की क्षमताओं से अधिक स्तर पर काम कर रहा है, हम अब सीमा निर्धारित नहीं कर पाएंगे।

Artificial Intelligence

शोधकर्ता लिखते हैं, "अतिसूक्ष्मवाद एक मौलिक रूप से अलग समस्या है जिसका अध्ययन आमतौर पर 'रोबोट नैतिकता' के बैनर तले किया जाता है।" "ऐसा इसलिए है क्योंकि सुपरमाइंड बहुआयामी है और इसलिए संभावित रूप से ऐसे लक्ष्यों को प्राप्त करने के लिए विभिन्न संसाधनों को जुटाने में सक्षम है जो मनुष्यों के लिए संभावित रूप से अथाह हैं, अकेले नियंत्रणीय हैं।"

टीम के तर्क का हिस्सा आता है रुकने की समस्या, 1936 में एलन ट्यूरिंग द्वारा प्रस्तावित। चुनौती यह पता लगाने की है कि क्या कंप्यूटर प्रोग्राम किसी निष्कर्ष पर पहुंचेगा और जवाब देगा (और रुक जाएगा) या जवाब खोजने की कोशिश में हमेशा के लिए घूम जाएगा।

जैसा कि ट्यूरिंग ने मदद से साबित किया बुद्धिमान गणित, जबकि हम इसे कुछ विशिष्ट कार्यक्रमों के लिए जान सकते हैं, यह तार्किक रूप से असंभव है कि ऐसा कोई तरीका खोजा जाए जो हमें हर संभावित कार्यक्रम के लिए यह जानने की अनुमति दे जो कभी भी लिखा जा सकता है। यह हमें एआई में वापस लाता है, जो एक सुपर-इंटेलिजेंट अवस्था में एक ही समय में सभी संभावित कंप्यूटर प्रोग्रामों को अपनी मेमोरी में स्टोर कर सकता है।

यह भी दिलचस्प:

उदाहरण के लिए, लिखा गया कोई भी कार्यक्रम, एआई को मनुष्यों को नुकसान पहुंचाने और दुनिया को नष्ट करने से रोकने के लिए किसी निष्कर्ष पर पहुंच सकता है या नहीं (और रुक सकता है) - किसी भी तरह से पूरी तरह से निश्चित होना गणितीय रूप से असंभव है, जिसका अर्थ है कि इसे रोका नहीं जा सकता है। जर्मनी में मैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट के कंप्यूटर वैज्ञानिक इयाद रहवान ने जनवरी में कहा, "यह मूल रूप से निवारक एल्गोरिदम को अनुपयोगी बनाता है।"

दुनिया को नष्ट करने के खिलाफ एआई नैतिकता और निषेध सिखाने का एक विकल्प, जिसके बारे में कोई भी एल्गोरिदम पूरी तरह से सुनिश्चित नहीं हो सकता है, शोधकर्ताओं का कहना है, सुपरमाइंड की क्षमताओं को सीमित करना है। उदाहरण के लिए, इसे इंटरनेट या कुछ नेटवर्क के हिस्से से काट दिया जा सकता है।

एक हालिया अध्ययन के लेखक भी इस विचार को खारिज करते हैं, यह मानते हुए कि यह कृत्रिम बुद्धि के दायरे को सीमित कर देगा - वे कहते हैं, अगर हम इसका उपयोग मानव क्षमताओं से परे समस्याओं को हल करने के लिए नहीं करने जा रहे हैं, तो इसे बिल्कुल क्यों बनाएं?

Artificial Intelligence

अगर हम कृत्रिम बुद्धिमत्ता को आगे बढ़ाने जा रहे हैं, तो हम यह भी नहीं जान पाएंगे कि एक अधीक्षण कब हमारे नियंत्रण से परे दिखाई देगा, यह अथाह है। इसका मतलब है कि हमें इस बारे में गंभीर सवाल पूछना शुरू करना होगा कि हम किस ओर जा रहे हैं।

मैक्स प्लैंक इंस्टीट्यूट फॉर ह्यूमन डेवलपमेंट के कंप्यूटर वैज्ञानिक मैनुअल केब्रियन कहते हैं, "दुनिया को चलाने वाली एक सुपर-इंटेलिजेंट मशीन साइंस फिक्शन की तरह लगती है।" लेकिन पहले से ही ऐसी मशीनें हैं जो स्वतंत्र रूप से कुछ महत्वपूर्ण कार्य करती हैं, जबकि प्रोग्रामर पूरी तरह से यह नहीं समझते हैं कि उन्होंने इसे कैसे सीखा।

इसलिए सवाल उठता है कि क्या यह किसी समय बेकाबू और मानवता के लिए खतरनाक हो सकता है...

यह भी पढ़ें:

साइन अप करें
के बारे में सूचित करें
अतिथि

0 टिप्पणियाँ
एंबेडेड समीक्षा
सभी टिप्पणियाँ देखें
अपडेट के लिए सब्सक्राइब करें