NTIA Receives Over 1,450 Comments On AI Accountability

राष्ट्रीय दूरसंचार और सूचना प्रशासन (NTIA), संयुक्त राज्य अमेरिका का वाणिज्य विभाग विभाग, बुलाया भरोसेमंद आर्टिफिशियल इंटेलिजेंस (एआई) सिस्टम में जवाबदेही को प्रोत्साहित करने के लिए रणनीतियों पर सार्वजनिक टिप्पणी के लिए।

इसका उद्देश्य एआई गारंटी और जवाबदेही ढांचे पर आगामी रिपोर्ट के लिए सुझाव तैयार करने के लिए हितधारकों की प्रतिक्रिया मांगना था। इन सुझावों ने भविष्य के संघीय और गैर-सरकारी नियमों को निर्देशित किया हो सकता है।

भरोसेमंद एआई को बढ़ावा देना जो मानवाधिकारों और लोकतांत्रिक सिद्धांतों को बनाए रखता है, एनटीआईए अनुरोध के अनुसार एक प्रमुख संघीय फोकस था। बहरहाल, यह सुनिश्चित करने में अंतराल बना रहा कि एआई सिस्टम जिम्मेदार थे और निष्पक्षता, सुरक्षा, गोपनीयता और पारदर्शिता के बारे में भरोसेमंद एआई नियमों का पालन करते थे।

लेखापरीक्षा, प्रभाव मूल्यांकन और प्रमाणन जैसे उत्तरदायित्व तंत्र आश्वासन दे सकते हैं कि एआई सिस्टम भरोसेमंद मानदंडों का पालन करते हैं। लेकिन, एनटीआईए ने पाया कि प्रभावी जवाबदेही को लागू करने से अभी भी चुनौतियां और जटिलताएं सामने आई हैं।

एनटीआईए ने भरोसेमंद एआई लक्ष्यों, जिम्मेदारी को लागू करने में बाधाओं, जटिल एआई आपूर्ति श्रृंखलाओं और मूल्य श्रृंखलाओं और मापों के मानकीकरण में कठिनाइयों के बीच संतुलन के आसपास कई तरह के विचारों पर चर्चा की।

एआई जवाबदेही पर 1,450 से अधिक टिप्पणियाँ

एनटीआईए की भविष्य की रिपोर्ट को आकार देने और एआई जवाबदेही के आसपास संभावित नीतिगत विकास में सहायता करने के लिए 12 जून तक टिप्पणियां स्वीकार की गईं।

टिप्पणियों की संख्या 1,450 से अधिक हो गई।

टिप्पणियाँ, जिन्हें कीवर्ड का उपयोग करके खोजा जा सकता है, कभी-कभी एआई के संभावित प्रभाव के बारे में लेखों, पत्रों, दस्तावेजों और मुकदमों के लिंक शामिल करती हैं।

टेक कंपनियां एनटीआईए को जवाब देती हैं

टिप्पणियों में कार्यस्थल के लिए एआई उत्पादों को विकसित करने का प्रयास करने वाली निम्नलिखित तकनीकी कंपनियों की प्रतिक्रिया शामिल थी।

एनटीआईए को ओपनएआई पत्र

में पत्र OpenAI से, इसने NTIA द्वारा भरोसेमंद आर्टिफिशियल इंटेलिजेंस की गारंटी के लिए आवश्यक AI जवाबदेही उपायों के “पारिस्थितिकी तंत्र” के रूप में इस मुद्दे को तैयार करने का स्वागत किया।

OpenAI के शोधकर्ताओं का मानना ​​था कि एक परिपक्व AI जवाबदेही पारिस्थितिकी तंत्र में सामान्य जवाबदेही तत्व शामिल होंगे जो व्यापक रूप से डोमेन और विशिष्ट संदर्भों और अनुप्रयोगों के लिए अनुकूलित वर्टिकल तत्वों पर लागू होते हैं।

OpenAI फाउंडेशन मॉडल विकसित करने पर ध्यान केंद्रित कर रहा है – व्यापक रूप से लागू AI मॉडल जो व्यापक डेटासेट से सीखते हैं।

यह इन मॉडलों के लिए एक सुरक्षा-केंद्रित दृष्टिकोण लेने की आवश्यकता पर विचार करता है, भले ही वे किसी विशेष डोमेन में कार्यरत हों।

OpenAI ने AI जवाबदेही के लिए कई मौजूदा दृष्टिकोणों को विस्तृत किया है। यह महत्वपूर्ण प्रदर्शन मुद्दों और नए मॉडलों के जोखिमों के बारे में पारदर्शिता प्रदान करने के लिए “सिस्टम कार्ड” प्रकाशित करता है।

यह क्षमताओं और विफलता मोड की जांच के लिए गुणात्मक “रेड टीमिंग” परीक्षण करता है। यह विभिन्न क्षमताओं और जोखिमों के लिए मात्रात्मक मूल्यांकन करता है। और इसमें प्रवर्तन तंत्रों के साथ-साथ हानिकारक उपयोगों को प्रतिबंधित करने वाली स्पष्ट उपयोग नीतियां हैं।

OpenAI ने कई महत्वपूर्ण अनसुलझे चुनौतियों को स्वीकार किया, जिसमें संभावित खतरनाक क्षमताओं का आकलन करना भी शामिल है, क्योंकि मॉडल क्षमताएं लगातार विकसित हो रही हैं।

इसने तीसरे पक्षों द्वारा अपने मॉडलों के स्वतंत्र आकलन के आसपास खुले प्रश्नों पर चर्चा की। और इसने सुझाव दिया कि महत्वपूर्ण जोखिमों वाले भविष्य के नींव मॉडल के लिए पंजीकरण और लाइसेंसिंग आवश्यकताएं आवश्यक हो सकती हैं।

जबकि OpenAI की वर्तमान प्रथाएँ पारदर्शिता, परीक्षण और नीतियों पर ध्यान केंद्रित करती हैं, कंपनी अधिक मजबूत जवाबदेही उपायों को विकसित करने के लिए नीति निर्माताओं के साथ सहयोग करने के लिए तैयार दिखाई देती है। इसने सुझाव दिया कि सक्षम एआई मॉडल के लिए अनुरूप नियामक ढांचा आवश्यक हो सकता है।

कुल मिलाकर, OpenAI की प्रतिक्रिया ने इसके विश्वास को प्रतिबिंबित किया कि स्व-नियामक प्रयासों और सरकारी नीतियों का संयोजन एक प्रभावी AI जवाबदेही पारिस्थितिकी तंत्र के विकास में महत्वपूर्ण भूमिका निभाएगा।

Microsoft NTIA को पत्र

इट्स में जवाब, Microsoft ने जोर देकर कहा कि एआई द्वारा इसके लाभों को अधिकतम करते हुए उत्पन्न जोखिमों को दूर करने के लिए जवाबदेही को ढांचे का एक मूलभूत तत्व होना चाहिए। एआई का विकास और उपयोग करने वाली कंपनियों को अपने सिस्टम के प्रभाव के लिए जिम्मेदार होना चाहिए, और निरीक्षण संस्थानों को उचित निरीक्षण करने के लिए अधिकार, ज्ञान और उपकरणों की आवश्यकता होती है।

Microsoft ने अपने Responsible AI प्रोग्राम के पाठों को रेखांकित किया, जिसका उद्देश्य यह सुनिश्चित करना है कि मशीनें मानव नियंत्रण में रहें। जवाबदेही उनकी शासन संरचना और उत्तरदायी एआई मानक में शामिल है और इसमें शामिल हैं:

  • संभावित नुकसान की पहचान करने और उसे दूर करने के लिए प्रभाव का आकलन करना।
  • उच्च जोखिम वाली प्रणालियों के लिए अतिरिक्त निरीक्षण।
  • यह सुनिश्चित करने के लिए दस्तावेज़ीकरण कि सिस्टम उद्देश्य के लिए उपयुक्त हैं।
  • डेटा शासन और प्रबंधन प्रथाओं।
  • मानव दिशा और नियंत्रण को आगे बढ़ाना।
  • Microsoft ने बताया कि कैसे वह संभावित नुकसान और विफलताओं को उजागर करने के लिए रेड टीमिंग का संचालन करता है और अपनी AI सेवाओं के लिए पारदर्शिता नोट प्रकाशित करता है। माइक्रोसॉफ्ट का नया बिंग सर्च इंजन इस जिम्मेदार एआई दृष्टिकोण को लागू करता है।

माइक्रोसॉफ्ट ने उत्तरदायित्व को आगे बढ़ाने के लिए छह सिफारिशें कीं:

  • विशेष रूप से उच्च जोखिम वाले एआई सिस्टम के लिए प्रभाव आकलन और रेड टीमिंग जैसे उत्तरदायित्व तंत्र के उपयोग में तेजी लाने के लिए एनआईएसटी के एआई जोखिम प्रबंधन ढांचे पर निर्माण करें।
  • एआई टेक स्टैक के आधार पर एक कानूनी और नियामक ढांचा विकसित करें, जिसमें फाउंडेशन मॉडल और इंफ्रास्ट्रक्चर प्रदाताओं के लिए लाइसेंसिंग आवश्यकताएं शामिल हों।
  • उत्तरदायित्व के समर्थक के रूप में अग्रिम पारदर्शिता, जैसे उच्च जोखिम वाले एआई सिस्टम की रजिस्ट्री के माध्यम से।
  • AI के विकास के साथ बनाए रखने के लिए सांसदों और नियामकों के लिए क्षमता निर्माण में निवेश करें।
  • एआई मूल्यांकन बेंचमार्क, व्याख्यात्मकता, मानव-कंप्यूटर संपर्क और सुरक्षा में सुधार के लिए अनुसंधान में निवेश करें।
  • आईएसओ एआई मानकों और सामग्री उद्गम मानकों सहित एक आश्वासन पारिस्थितिकी तंत्र को मजबूत करने के लिए अंतरराष्ट्रीय मानकों को विकसित और संरेखित करें।
  • कुल मिलाकर, Microsoft AI जवाबदेही के लिए प्रभावी दृष्टिकोण विकसित करने और लागू करने के लिए हितधारकों के साथ साझेदारी करने के लिए तैयार दिखाई दिया।

Microsoft, समग्र रूप से, AI जवाबदेही के लिए प्रभावी दृष्टिकोण विकसित करने और लागू करने के लिए हितधारकों के साथ साझेदारी करने के लिए तैयार लग रहा था।

एनटीआईए को गूगल का पत्र

गूगल का जवाब एआई जवाबदेही नीतियों पर टिप्पणियों के लिए एनटीआईए के अनुरोध का स्वागत किया। इसने भरोसेमंद एआई हासिल करने के लिए स्व-विनियमन और शासन दोनों की आवश्यकता को पहचाना।

Google ने एआई सुरक्षा और नैतिकता पर अपने स्वयं के काम पर प्रकाश डाला, जैसे निष्पक्षता, सुरक्षा, गोपनीयता और पारदर्शिता पर केंद्रित एआई सिद्धांतों का एक सेट। Google ने जोखिम मूल्यांकन और निष्पक्षता मूल्यांकन करने सहित आंतरिक रूप से उत्तरदायी AI प्रथाओं को भी लागू किया।

Google ने उच्च जोखिम वाले एआई के लिए जहां लागू हो वहां मौजूदा नियामक ढांचे और जोखिम-आधारित हस्तक्षेपों का समर्थन किया। इसने तकनीकी मानकों को विकसित करने के लिए एक सहयोगी, सहमति-आधारित दृष्टिकोण का उपयोग करने को प्रोत्साहित किया।

Google इस बात से सहमत था कि लेखापरीक्षा, मूल्यांकन और प्रमाणन जैसे उत्तरदायित्व तंत्र भरोसेमंद एआई सिस्टम का आश्वासन प्रदान कर सकते हैं। लेकिन इसने नोट किया कि इन तंत्रों को कार्यान्वयन में चुनौतियों का सामना करना पड़ता है, जिसमें एआई सिस्टम के जोखिमों को प्रभावित करने वाले पहलुओं की भीड़ का मूल्यांकन करना शामिल है।

Google ने प्रमुख जोखिम कारकों पर जवाबदेही तंत्र पर ध्यान केंद्रित करने की सिफारिश की और सुझाव दिया कि एआई सिस्टम समाज को महत्वपूर्ण रूप से प्रभावित कर सकने वाले सबसे संभावित तरीकों को लक्षित करने वाले दृष्टिकोणों का उपयोग करें।

Google ने एआई विनियमन के “हब-एंड-स्पोक” मॉडल की सिफारिश की, जिसमें एनआईएसटी जैसी केंद्रीय एजेंसी के मार्गदर्शन के साथ एआई कार्यान्वयन की देखरेख करने वाले क्षेत्रीय नियामक हैं। यह स्पष्ट करने का समर्थन करता है कि एआई पर मौजूदा कानून कैसे लागू होते हैं और उच्च जोखिम वाले एआई के लिए आनुपातिक जोखिम-आधारित जवाबदेही उपायों को प्रोत्साहित करते हैं।

दूसरों की तरह, Google का मानना ​​​​था कि उसे AI जवाबदेही को आगे बढ़ाने के लिए स्व-विनियमन, तकनीकी मानकों और सीमित, जोखिम-आधारित सरकारी नीतियों के मिश्रण की आवश्यकता होगी।

एनटीआईए को मानवशास्त्रीय पत्र

एंथ्रोपिक का जवाब इस विश्वास का वर्णन किया कि एक मजबूत एआई जवाबदेही पारिस्थितिकी तंत्र को एआई मॉडल के अनुरूप तंत्र की आवश्यकता होती है। इसने कई चुनौतियों की पहचान की, जिसमें एआई सिस्टम का कड़ाई से मूल्यांकन करने और सुरक्षा से समझौता किए बिना ऑडिट के लिए आवश्यक संवेदनशील जानकारी तक पहुंचने में कठिनाई शामिल है।

निम्नलिखित के लिए एंथ्रोपिक समर्थित फंडिंग:

  • मॉडल मूल्यांकन: वर्तमान मूल्यांकन एक अधूरा पैचवर्क है और इसके लिए विशेष विशेषज्ञता की आवश्यकता होती है। इसने छल और स्वायत्तता जैसे जोखिमों पर केंद्रित क्षमता मूल्यांकन के मानकीकरण की सिफारिश की।
  • व्याख्यात्मकता अनुसंधान: व्याख्यात्मकता अनुसंधान के लिए अनुदान और वित्त पोषण अधिक पारदर्शी और समझने योग्य मॉडल सक्षम कर सकते हैं। हालाँकि, व्याख्यात्मकता की मांग करने वाले नियम वर्तमान में अव्यावहारिक हैं।
  • बड़े एआई प्रशिक्षण रन का पूर्व-पंजीकरण: एआई डेवलपर्स को उचित गोपनीयता सुरक्षा के तहत उपन्यास जोखिमों के बारे में सूचित करने के लिए नियामकों को बड़े प्रशिक्षण रन की रिपोर्ट करनी चाहिए।
  • बाहरी रेड टीमिंग: रिलीज से पहले एआई सिस्टम का अनिवार्य प्रतिकूल परीक्षण, या तो एनआईएसटी जैसे केंद्रीकृत संगठन के माध्यम से या शोधकर्ता पहुंच के माध्यम से। हालाँकि, रेड-टीमिंग प्रतिभा वर्तमान में निजी AI प्रयोगशालाओं में रहती है।
  • तकनीकी विशेषज्ञता, सुरक्षा चेतना और लचीलेपन वाले लेखा परीक्षक: लीक या हैकिंग को रोकने के लिए लेखा परीक्षकों को गहन मशीन सीखने के अनुभव की आवश्यकता होती है, लेकिन प्रतिस्पर्धात्मकता को बढ़ावा देने वाली बाधाओं के भीतर भी काम करना चाहिए।
  • एंथ्रोपिक ने एक मॉडल की क्षमताओं और प्रदर्शित जोखिमों के आधार पर स्कोपिंग जवाबदेही उपायों की सिफारिश की, जिनका मूल्यांकन लक्षित क्षमताओं के मूल्यांकन के माध्यम से किया गया। इसने निष्पक्ष लाइसेंसिंग को सक्षम करने और सुरक्षा सहयोग की अनुमति देने के लिए एंटीट्रस्ट मुद्दों पर मार्गदर्शन प्रदान करने के लिए एआई के लिए आईपी स्वामित्व ढांचे को स्पष्ट करने का सुझाव दिया।
  • कुल मिलाकर, एंथ्रोपिक ने अपनी संवेदनशील प्रकृति के कारण उन्नत एआई सिस्टम के बारे में जानकारी का कड़ाई से मूल्यांकन करने और उस तक पहुंचने की कठिनाइयों पर बल दिया। इसने तर्क दिया कि फंडिंग क्षमताओं का मूल्यांकन, व्याख्यात्मकता अनुसंधान, और कम्प्यूटेशनल संसाधनों तक पहुंच प्रभावी एआई जवाबदेही पारिस्थितिकी तंत्र के लिए महत्वपूर्ण हैं जो समाज को लाभान्वित करते हैं।

आगे क्या उम्मीद करें

टिप्पणी के लिए एनटीआईए के अनुरोध की प्रतिक्रियाओं से पता चलता है कि एआई कंपनियां जवाबदेही के महत्व को पहचानती हैं, लेकिन जवाबदेही तंत्र को प्रभावी ढंग से लागू करने और बढ़ाने के लिए अभी भी खुले प्रश्न और चुनौतियां हैं।

वे यह भी संकेत देते हैं कि कंपनियों द्वारा स्व-नियामक प्रयास और सरकारी नीतियां दोनों एक मजबूत एआई जवाबदेही पारिस्थितिकी तंत्र के विकास में भूमिका निभाएंगी।

आगे बढ़ते हुए, एनटीआईए रिपोर्ट में मौजूदा स्व-नियामक प्रयासों, तकनीकी मानकों और सरकारी नीतियों का लाभ उठाकर और निर्माण करके एआई जवाबदेही पारिस्थितिकी तंत्र को आगे बढ़ाने के लिए सिफारिशें करने की उम्मीद है। टिप्पणियों की प्रक्रिया के माध्यम से हितधारकों के इनपुट से उन सिफारिशों को आकार देने में मदद मिलेगी।

हालांकि, ठोस नीतिगत बदलावों और उद्योग प्रथाओं में सिफारिशों को लागू करने से एआई कैसे विकसित, परिनियोजित और निरीक्षण किया जा सकता है, इसके लिए सरकारी एजेंसियों, तकनीकी कंपनियों, शोधकर्ताओं और अन्य हितधारकों के बीच समन्वय की आवश्यकता होगी।

परिपक्व एआई जवाबदेही का मार्ग लंबा और कठिन होने का वादा करता है। लेकिन ये शुरुआती कदम बताते हैं कि उस लक्ष्य को हासिल करने की दिशा में गति है।


विशेष रुप से प्रदर्शित छवि: EQRoy / शटरस्टॉक

Leave a Comment