शनिवार, 4 मई 2024

डेस्कटॉप v4.2.1

Root Nationसमाचारआईटी अखबारGoogle के पूर्व प्रमुख ने कृत्रिम बुद्धिमत्ता की तुलना परमाणु हथियारों से की

Google के पूर्व प्रमुख ने कृत्रिम बुद्धिमत्ता की तुलना परमाणु हथियारों से की

-

गूगल के पूर्व सीईओ एरिक श्मिट ने आर्टिफिशियल इंटेलिजेंस (एआई) की तुलना परमाणु हथियारों से की और आपसी सुनिश्चित विनाश के समान एक निवारक शासन का आह्वान किया, जो दुनिया के सबसे शक्तिशाली देशों को एक-दूसरे को नष्ट करने से रोकता है।

Google के पूर्व प्रमुख ने कृत्रिम बुद्धिमत्ता की तुलना परमाणु हथियारों से की

श्मिट ने राष्ट्रीय सुरक्षा और एआई पर चर्चा के दौरान 22 जुलाई को एस्पेन सिक्योरिटी फोरम में कृत्रिम बुद्धिमत्ता के खतरों के बारे में बात की। प्रौद्योगिकी में नैतिकता के मूल्य के बारे में पूछे जाने पर, श्मिट ने बताया कि वह स्वयं Google के शुरुआती दिनों में सूचना की शक्ति के बारे में अनुभवहीन थे। इसके बाद उन्होंने उन लोगों की नैतिकता और नैतिकता से बेहतर मिलान करने के लिए प्रौद्योगिकी का आह्वान किया, जिनकी वे सेवा करते हैं, और कृत्रिम बुद्धि और परमाणु हथियारों के बीच एक अजीब तुलना की।

श्मिट ने निकट भविष्य के बारे में बात की, जिसमें चीन और संयुक्त राज्य अमेरिका को कृत्रिम बुद्धिमत्ता पर एक समझौते को समाप्त करने की आवश्यकता है। "50 और 60 के दशक में, हमने एक ऐसी दुनिया का निर्माण किया जहां परमाणु परीक्षण के लिए 'कोई आश्चर्य नहीं' नियम था, और परिणामस्वरूप, उन्हें प्रतिबंधित कर दिया गया," श्मिट ने कहा। "यह विश्वास के संतुलन या विश्वास की कमी का एक उदाहरण है, यह 'कोई आश्चर्य नहीं' का नियम है।" मुझे इस बात की बहुत चिंता है कि अमेरिका चीन को भ्रष्ट या साम्यवादी या जो कुछ भी देखता है, और चीन का अमेरिका को एक हारे हुए के रूप में देखने का दृष्टिकोण... लोगों को यह कहने की अनुमति देगा, "हे भगवान, वे कुछ करने के लिए तैयार हैं," और फिर कुछ समझ से बाहर शुरू होगा ....

एआई और मशीन लर्निंग एक आकर्षक और अक्सर गलत समझी जाने वाली तकनीक है। वह मूल रूप से उतना स्मार्ट नहीं है जितना लोग सोचते हैं। यह उत्कृष्ट-स्तरीय कलाकृति बना सकता है, Starcraft II में लोगों को हरा सकता है, और उपयोगकर्ताओं के लिए प्राथमिक फोन कॉल कर सकता है। हालाँकि, इसे और अधिक कठिन कार्य करने के प्रयास, जैसे कि बड़े शहर में कार चलाना, सफल नहीं रहे हैं।

श्मिट निकट भविष्य की एक काल्पनिक बात की बात करते हैं जिसमें चीन और अमेरिका दोनों सुरक्षा मुद्दों के बारे में चिंतित होंगे, जो उन्हें एआई को शामिल करने के लिए एक तरह की संधि में प्रवेश करने के लिए मजबूर करेगा। उन्होंने 1950 और 60 के दशक को याद किया, जब कूटनीति ने ग्रह पर सबसे घातक हथियारों के आसपास नियंत्रण की एक श्रृंखला विकसित की थी। लेकिन परमाणु परीक्षण प्रतिबंध संधि, एसएएलटी II और अन्य ऐतिहासिक कानून के समापन से पहले शांति के लिए परमाणु विस्फोट और सबसे महत्वपूर्ण बात यह है कि हिरोशिमा और नागासाकी का विनाश हुआ।

द्वितीय विश्व युद्ध के अंत में अमेरिका द्वारा नष्ट किए गए दो जापानी शहरों ने हजारों लोगों की जान ले ली और दुनिया को परमाणु हथियारों का शाश्वत आतंक साबित कर दिया। तब रूस और चीन की सरकारें हथियार हासिल करने के लिए दौड़ पड़ीं। जिस तरह से हम इस संभावना के साथ रहते हैं कि इन हथियारों का इस्तेमाल किया जाएगा, जिसे पारस्परिक रूप से सुनिश्चित विनाश (एमएडी) के रूप में जाना जाता है, एक सिद्धांत जो यह सुनिश्चित करता है कि यदि एक देश परमाणु हथियार लॉन्च करता है, तो यह संभव है कि कोई अन्य देश। हम ग्रह पर सबसे विनाशकारी हथियारों का उपयोग नहीं करते हैं क्योंकि इस संभावना के कारण कि यह दुनिया भर में कम से कम सभ्यता को नष्ट कर देगा।

श्मिट की रंगीन टिप्पणियों के बावजूद, हम एआई के लिए एमएडी नहीं चाहते हैं या नहीं चाहिए। पहला, एआई ने अभी तक परमाणु हथियारों की तुलना में अपनी विनाशकारी शक्ति साबित नहीं की है। लेकिन सत्ता में बैठे लोग इस नई तकनीक से डरते हैं, और आमतौर पर गलत कारणों से। लोगों ने परमाणु हथियारों का नियंत्रण एक कृत्रिम बुद्धि को सौंपने का भी प्रस्ताव रखा है, यह मानते हुए कि यह मानव की तुलना में इसके उपयोग का बेहतर मध्यस्थ होगा।

Google के पूर्व प्रमुख ने AI की तुलना परमाणु हथियारों से की

आर्टिफिशियल इंटेलिजेंस के साथ समस्या यह नहीं है कि इसमें परमाणु हथियार की संभावित विनाशकारी शक्ति है। मुद्दा यह है कि कृत्रिम बुद्धि केवल उतनी ही अच्छी है जितनी कि इसे विकसित करने वाले लोग, और यह अपने रचनाकारों के मूल्यों को वहन करता है। एआई क्लासिक "कचरा में, कचरा बाहर" समस्या से ग्रस्त है: नस्लवादी एल्गोरिदम नस्लवादी रोबोट बनाते हैं, और सभी एआई अपने रचनाकारों के पूर्वाग्रहों को वहन करते हैं।

स्टारक्राफ्ट II खिलाड़ियों को मात देने वाली एआई को प्रशिक्षित करने वाली कंपनी डीपमाइंड के सीईओ डेमिस हसाबिस इसे श्मिट से बेहतर समझते हैं। लेक्स फ्रीडमैन के पॉडकास्ट पर जुलाई के एक साक्षात्कार में, फ्रीडमैन ने हसबिस से पूछा कि एआई जैसी शक्तिशाली तकनीक को कैसे नियंत्रित किया जा सकता है, और कैसे हसबिस खुद उस शक्ति से भ्रष्ट होने से बच सकते हैं।

खासाबिस का जवाब अपने बारे में है। "कृत्रिम बुद्धिमत्ता बहुत बड़ा विचार है," उन्होंने कहा। "यह महत्वपूर्ण है कि एआई कौन बनाता है, वे किन संस्कृतियों से आते हैं और उनके मूल्य क्या हैं। एआई सिस्टम अपने आप सीख जाएगा... लेकिन सिस्टम सिस्टम के लेखकों की संस्कृति और मूल्यों के साथ अंकित रहेगा।"

आर्टिफिशियल इंटेलिजेंस इसके लेखक का प्रतिबिंब है। यह 1,2 मेगाटन विस्फोट के साथ एक शहर को धराशायी नहीं कर सकता। जब तक कोई व्यक्ति उसे यह नहीं सिखाता।

आप यूक्रेन को रूसी आक्रमणकारियों से लड़ने में मदद कर सकते हैं। ऐसा करने का सबसे अच्छा तरीका यूक्रेन के सशस्त्र बलों को धन दान करना है जीवन बचाएं या आधिकारिक पेज के माध्यम से NBU.

यह भी पढ़ें:

साइन अप करें
के बारे में सूचित करें
अतिथि

0 टिप्पणियाँ
एंबेडेड समीक्षा
सभी टिप्पणियाँ देखें
अपडेट के लिए सब्सक्राइब करें