श्रेणियाँ: आईटी अखबार

प्रौद्योगिकी विशेषज्ञ एआई प्रयोगों को रोकने की मांग करते हैं

प्रौद्योगिकी नेताओं और प्रमुख एआई शोधकर्ताओं ने हस्ताक्षर किए हैं खुला पत्र, जो एआई प्रयोगशालाओं और कंपनियों से उनके काम को "तुरंत निलंबित" करने का आह्वान करता है।

स्टीव वोज्नियाक और एलोन मस्क सहित हस्ताक्षरकर्ता इस बात से सहमत हैं कि जोखिम के दायरे से बाहर जाने वाली प्रौद्योगिकियों के उत्पादन से कम से कम छह महीने के अंतराल की आवश्यकता है। GPT-4. यह एआई सिस्टम से आनंद और संतुष्टि प्राप्त करने के लिए है जो अब मौजूद है, और लोगों को उनके अनुकूल होने और यह देखने की अनुमति देता है कि वे उपयोगी हैं।

पत्र में कहा गया है कि कृत्रिम बुद्धिमत्ता प्रणालियों की सुरक्षा सुनिश्चित करने के लिए सावधानी और दूरदर्शिता की आवश्यकता है, लेकिन उन्हें नजरअंदाज किया जा रहा है। GPT-4 का संदर्भ, एक नया OpenAI मॉडल है जो लिखित या दृश्य संदेशों पर टेक्स्ट के साथ प्रतिक्रिया दे सकता है, जब कंपनियां प्रौद्योगिकी का उपयोग करके परिष्कृत चैट सिस्टम बनाने की होड़ में हैं। उदाहरण, Microsoft हाल ही में पुष्टि की गई है कि उसका अद्यतन बिंग सर्च इंजन 4 सप्ताह से अधिक समय से GPT-7 मॉडल पर चल रहा है, और Google ने हाल ही में आधिकारिक तौर पर पेश किया है चारण - LaMDA पर आधारित खुद की जनरेटिव आर्टिफिशियल इंटेलिजेंस सिस्टम।

एआई के बारे में चिंताएं लंबे समय से मौजूद हैं, लेकिन सबसे उन्नत तकनीक को अपनाने की होड़ स्पष्ट है कृत्रिम होशियारी पहला पहले से ही खतरनाक है। पत्र में कहा गया है, "हाल के महीनों में, एआई लैब तेजी से शक्तिशाली डिजिटल दिमाग विकसित करने और लागू करने के लिए एक अनियंत्रित दौड़ में उलझे हुए हैं, जिसे कोई भी - उनके लेखक भी नहीं - समझ सकते हैं, भविष्यवाणी कर सकते हैं या मज़बूती से नियंत्रित कर सकते हैं।"

यह पत्र गैर-लाभकारी संगठन फ्यूचर ऑफ लाइफ इंस्टीट्यूट (एफएलआई) द्वारा प्रकाशित किया गया था, जो विशेष रूप से एआई में वैश्विक विनाशकारी और अस्तित्वगत जोखिमों और नई तकनीकों के दुरुपयोग को कम करने के लिए काम करता है। इससे पहले, मस्क ने एआई सुरक्षा अनुसंधान के लिए एफएलआई को $10 मिलियन का दान दिया था। उनके और वोज्नियाक के अलावा, हस्ताक्षरकर्ताओं में एआई के क्षेत्र में कई विश्व नेता शामिल हैं, जैसे सेंटर फॉर एआई और डिजिटल पॉलिसी के अध्यक्ष मार्क रोथेनबर्ग, एमआईटी भौतिक विज्ञानी और एफएलआई के अध्यक्ष मैक्स टेगमार्क, और लेखक युवल नूह हरारी।

हरारी ने पिछले सप्ताह न्यूयॉर्क टाइम्स में एक ऑप-एड का सह-लेखन भी किया जिसमें इससे जुड़े जोखिमों की चेतावनी दी गई थी कृत्रिम होशियारी, जिस पर सेंटर फॉर ह्यूमेन टेक्नोलॉजीज के संस्थापक और खुले पत्र के अन्य हस्ताक्षरकर्ता ट्रिस्टन हैरिस और आजा रस्किन ने उनके साथ काम किया।

कॉल 700 से अधिक मशीन लर्निंग शोधकर्ताओं के पिछले साल के एक सर्वेक्षण का अनुसरण करता है जिसमें लगभग आधे ने कहा कि एआई से "बेहद खराब परिणाम" का लगभग 10% मौका था, जिसमें मानव विलुप्त होना भी शामिल था। एआई अनुसंधान में सुरक्षा के बारे में पूछे जाने पर, 68% उत्तरदाताओं ने कहा कि अधिक या बहुत कुछ किए जाने की आवश्यकता है।

यह भी पढ़ें:

Share
Svitlana Anisimova

ऑफिस फ्रीक, क्रेजी रीडर, मार्वल सिनेमैटिक यूनिवर्स का फैन। मैं 80% दोषी खुशी हूँ।

एक जवाब लिखें

आपका ईमेल पता प्रकाशित नहीं किया जाएगा। आवश्यक फ़ील्ड इस तरह चिह्नित हैं*