शुक्रवार, 3 मई 2024

डेस्कटॉप v4.2.1

Root Nationसमाचारआईटी अखबारप्रौद्योगिकी विशेषज्ञ एआई प्रयोगों को रोकने की मांग करते हैं

प्रौद्योगिकी विशेषज्ञ एआई प्रयोगों को रोकने की मांग करते हैं

-

प्रौद्योगिकी नेताओं और प्रमुख एआई शोधकर्ताओं ने हस्ताक्षर किए हैं खुला पत्र, जो एआई प्रयोगशालाओं और कंपनियों से उनके काम को "तुरंत निलंबित" करने का आह्वान करता है।

स्टीव वोज्नियाक और एलोन मस्क सहित हस्ताक्षरकर्ता इस बात से सहमत हैं कि जोखिम के दायरे से बाहर जाने वाली प्रौद्योगिकियों के उत्पादन से कम से कम छह महीने के अंतराल की आवश्यकता है। GPT-4. यह एआई सिस्टम से आनंद और संतुष्टि प्राप्त करने के लिए है जो अब मौजूद है, और लोगों को उनके अनुकूल होने और यह देखने की अनुमति देता है कि वे उपयोगी हैं।

प्रौद्योगिकी के नेता और विशेषज्ञ एआई प्रयोगों को रोकने का आह्वान कर रहे हैं

पत्र में कहा गया है कि कृत्रिम बुद्धिमत्ता प्रणालियों की सुरक्षा सुनिश्चित करने के लिए सावधानी और दूरदर्शिता की आवश्यकता है, लेकिन उन्हें नजरअंदाज किया जा रहा है। GPT-4 का संदर्भ, एक नया OpenAI मॉडल है जो लिखित या दृश्य संदेशों पर टेक्स्ट के साथ प्रतिक्रिया दे सकता है, जब कंपनियां प्रौद्योगिकी का उपयोग करके परिष्कृत चैट सिस्टम बनाने की होड़ में हैं। उदाहरण, Microsoft हाल ही में पुष्टि की गई है कि उसका अद्यतन बिंग सर्च इंजन 4 सप्ताह से अधिक समय से GPT-7 मॉडल पर चल रहा है, और Google ने हाल ही में आधिकारिक तौर पर पेश किया है चारण - LaMDA पर आधारित खुद की जनरेटिव आर्टिफिशियल इंटेलिजेंस सिस्टम।

एआई के बारे में चिंताएं लंबे समय से मौजूद हैं, लेकिन सबसे उन्नत तकनीक को अपनाने की होड़ स्पष्ट है कृत्रिम होशियारी पहला पहले से ही खतरनाक है। पत्र में कहा गया है, "हाल के महीनों में, एआई लैब तेजी से शक्तिशाली डिजिटल दिमाग विकसित करने और लागू करने के लिए एक अनियंत्रित दौड़ में उलझे हुए हैं, जिसे कोई भी - उनके लेखक भी नहीं - समझ सकते हैं, भविष्यवाणी कर सकते हैं या मज़बूती से नियंत्रित कर सकते हैं।"

प्रौद्योगिकी के नेता और विशेषज्ञ एआई प्रयोगों को रोकने का आह्वान कर रहे हैं

यह पत्र गैर-लाभकारी संगठन फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा प्रकाशित किया गया था, जो विशेष रूप से एआई में वैश्विक विनाशकारी और अस्तित्वगत जोखिमों और नई तकनीकों के दुरुपयोग को कम करने के लिए काम करता है। इससे पहले, मस्क ने एआई सुरक्षा अनुसंधान के लिए एफएलआई को $10 मिलियन का दान दिया था। उनके और वोज्नियाक के अलावा, हस्ताक्षरकर्ताओं में एआई के क्षेत्र में कई विश्व नेता शामिल हैं, जैसे सेंटर फॉर एआई और डिजिटल पॉलिसी के अध्यक्ष मार्क रोथेनबर्ग, एमआईटी भौतिक विज्ञानी और एफएलआई के अध्यक्ष मैक्स टेगमार्क, और लेखक युवल नूह हरारी।

हरारी ने पिछले सप्ताह न्यूयॉर्क टाइम्स में एक ऑप-एड का सह-लेखन भी किया जिसमें इससे जुड़े जोखिमों की चेतावनी दी गई थी कृत्रिम होशियारी, जिस पर सेंटर फॉर ह्यूमेन टेक्नोलॉजीज के संस्थापक और खुले पत्र के अन्य हस्ताक्षरकर्ता ट्रिस्टन हैरिस और आजा रस्किन ने उनके साथ काम किया।

कॉल 700 से अधिक मशीन लर्निंग शोधकर्ताओं के पिछले साल के एक सर्वेक्षण का अनुसरण करता है जिसमें लगभग आधे ने कहा कि एआई से "बेहद खराब परिणाम" का लगभग 10% मौका था, जिसमें मानव विलुप्त होना भी शामिल था। एआई अनुसंधान में सुरक्षा के बारे में पूछे जाने पर, 68% उत्तरदाताओं ने कहा कि अधिक या बहुत कुछ किए जाने की आवश्यकता है।

यह भी पढ़ें:

स्रोतengadget
साइन अप करें
के बारे में सूचित करें
अतिथि

0 टिप्पणियाँ
एंबेडेड समीक्षा
सभी टिप्पणियाँ देखें
अपडेट के लिए सब्सक्राइब करें