OpenAI, Makers Of ChatGPT, Commit To Developing Safe AI Systems

OpenAI ने सुरक्षित और व्यापक रूप से लाभकारी कृत्रिम बुद्धिमत्ता (AI) विकसित करने के लिए प्रतिबद्ध एक नया ब्लॉग पोस्ट प्रकाशित किया है।

OpenAI के नवीनतम मॉडल, GPT-4 द्वारा संचालित ChatGPT, उत्पादकता में सुधार कर सकता है, रचनात्मकता को बढ़ा सकता है और सीखने के अनुरूप अनुभव प्रदान कर सकता है।

हालाँकि, OpenAI स्वीकार करता है कि AI उपकरणों में निहित जोखिम हैं जिन्हें सुरक्षा उपायों और जिम्मेदार तैनाती के माध्यम से संबोधित किया जाना चाहिए।

यहां बताया गया है कि कंपनी उन जोखिमों को कम करने के लिए क्या कर रही है।

एआई सिस्टम में सुरक्षा सुनिश्चित करना

OpenAI पूरी तरह से परीक्षण करता है, विशेषज्ञों से बाहरी मार्गदर्शन मांगता है, और नए सिस्टम जारी करने से पहले अपने AI मॉडल को मानवीय प्रतिक्रिया के साथ परिष्कृत करता है।

उदाहरण के लिए, GPT-4 की रिलीज़ से पहले इसकी सुरक्षा और उपयोगकर्ता की जरूरतों के साथ संरेखण सुनिश्चित करने के लिए छह महीने से अधिक का परीक्षण किया गया था।

OpenAI का मानना ​​है कि मजबूत AI सिस्टम को कठोर सुरक्षा मूल्यांकन के अधीन होना चाहिए और विनियमन की आवश्यकता का समर्थन करता है।

वास्तविक दुनिया के उपयोग से सीखना

सुरक्षित एआई सिस्टम विकसित करने में वास्तविक दुनिया का उपयोग एक महत्वपूर्ण घटक है। धीरे-धीरे बढ़ते उपयोगकर्ता आधार के लिए सावधानीपूर्वक नए मॉडल जारी करके, OpenAI ऐसे सुधार कर सकता है जो अप्रत्याशित मुद्दों को संबोधित करते हैं।

अपने एपीआई और वेबसाइट के माध्यम से एआई मॉडल की पेशकश करके, ओपनएआई दुरुपयोग की निगरानी कर सकता है, उचित कार्रवाई कर सकता है और जोखिम को संतुलित करने के लिए सूक्ष्म नीतियां विकसित कर सकता है।

बच्चों की सुरक्षा और गोपनीयता का सम्मान करना

ओपनएआई आयु सत्यापन की आवश्यकता और हानिकारक सामग्री उत्पन्न करने के लिए अपनी तकनीक का उपयोग करने पर रोक लगाकर बच्चों की सुरक्षा को प्राथमिकता देता है।

गोपनीयता OpenAI के कार्य का एक अन्य आवश्यक पहलू है। संगठन उपयोगकर्ताओं की सुरक्षा करते हुए अपने मॉडल को अधिक सहायक बनाने के लिए डेटा का उपयोग करता है।

इसके अतिरिक्त, OpenAI व्यक्तिगत जानकारी के अनुरोधों को अस्वीकार करने के लिए प्रशिक्षण डेटासेट और फाइन-ट्यून मॉडल से व्यक्तिगत जानकारी को हटा देता है।

OpenAI अपने सिस्टम से निजी जानकारी को हटाने के अनुरोधों का जवाब देगा।

तथ्यात्मक सटीकता में सुधार

तथ्यात्मक सटीकता OpenAI के लिए एक महत्वपूर्ण फोकस है। GPT-4 अपने पूर्ववर्ती, GPT-3.5 की तुलना में सटीक सामग्री का उत्पादन करने की 40% अधिक संभावना है।

संगठन उपयोगकर्ताओं को एआई उपकरणों की सीमाओं और अशुद्धियों की संभावना के बारे में शिक्षित करने का प्रयास करता है।

निरंतर अनुसंधान और सगाई

OpenAI प्रभावी शमन और संरेखण तकनीकों पर शोध करने के लिए समय और संसाधन समर्पित करने में विश्वास रखता है।

हालाँकि, ऐसा कुछ नहीं है जो यह अकेले कर सकता है। सुरक्षा मुद्दों को संबोधित करने के लिए हितधारकों के बीच व्यापक बहस, प्रयोग और जुड़ाव की आवश्यकता होती है।

OpenAI एक सुरक्षित AI इकोसिस्टम बनाने के लिए सहयोग और खुली बातचीत को बढ़ावा देने के लिए प्रतिबद्ध है।

अस्तित्वगत जोखिमों पर आलोचना

अपने एआई सिस्टम की सुरक्षा और व्यापक लाभ सुनिश्चित करने के लिए ओपनएआई की प्रतिबद्धता के बावजूद, इसके ब्लॉग पोस्ट ने सोशल मीडिया पर आलोचना की है।

ट्विटर उपयोगकर्ताओं ने निराशा व्यक्त की है, जिसमें कहा गया है कि OpenAI AI विकास से जुड़े अस्तित्वगत जोखिमों को दूर करने में विफल है।

एक ट्विटर उपयोगकर्ता ने OpenAI पर अपने संस्थापक मिशन को धोखा देने और लापरवाह व्यावसायीकरण पर ध्यान केंद्रित करने का आरोप लगाते हुए अपनी निराशा व्यक्त की।

उपयोगकर्ता का सुझाव है कि सुरक्षा के लिए OpenAI का दृष्टिकोण सतही है और वास्तविक अस्तित्वगत जोखिमों को संबोधित करने की तुलना में आलोचकों को खुश करने से अधिक चिंतित है।

एक अन्य उपयोगकर्ता ने घोषणा पर असंतोष व्यक्त किया, यह तर्क देते हुए कि यह वास्तविक समस्याओं पर प्रकाश डालती है और अस्पष्ट बनी हुई है। उपयोगकर्ता इस बात पर भी प्रकाश डालता है कि रिपोर्ट एआई आत्म-जागरूकता से जुड़े महत्वपूर्ण नैतिक मुद्दों और जोखिमों की उपेक्षा करती है, जिसका अर्थ है कि सुरक्षा मुद्दों के लिए ओपनएआई का दृष्टिकोण अपर्याप्त है।

आलोचना एआई विकास द्वारा उत्पन्न अस्तित्व संबंधी जोखिमों के बारे में व्यापक चिंताओं और चल रही बहस को रेखांकित करती है।

जबकि OpenAI की घोषणा सुरक्षा, गोपनीयता और सटीकता के प्रति अपनी प्रतिबद्धता को रेखांकित करती है, अधिक महत्वपूर्ण चिंताओं को दूर करने के लिए आगे की चर्चा की आवश्यकता को पहचानना आवश्यक है।


विशेष रुप से प्रदर्शित छवि: टीआई लिम / शटरस्टॉक

स्रोत: ओपनएआई

Leave a Comment