एक साल के टेक स्कैंडल्स के बाद, एआई के लिए हमारी 10 सिफारिशें

आइए, बेहतर विनियमन के साथ शुरुआत करें, श्रमिकों की सुरक्षा करें, और AI में "विज्ञापन में सच्चाई" नियम लागू करें

आज AI AI संस्थान 2018 में AI की स्थिति पर हमारी तीसरी वार्षिक रिपोर्ट प्रकाशित करता है, जिसमें सरकारों, शोधकर्ताओं और उद्योग चिकित्सकों के लिए 10 सिफारिशें शामिल हैं।

यह AI में एक नाटकीय वर्ष रहा है। फेसबुक से संभावित रूप से म्यांमार में जातीय सफाई को भड़काने के लिए, कैम्ब्रिज एनालिटिका को चुनावों में हेरफेर करने के लिए, Google को चीनी के लिए एक गुप्त सेंसर खोज इंजन का निर्माण करने के लिए, ICE के साथ Microsoft अनुबंधों पर गुस्सा करने के लिए, अमेज़न के एल्गोरिदम में प्रबंधित गोदामों में कई श्रमिक विद्रोहियों के लिए - सुर्खियाँ बंद नहीं हुईं। और ये सैकड़ों लोगों के बीच कुछ उदाहरण हैं।

इन कैस्केडिंग एआई घोटालों के मूल में जवाबदेही के सवाल हैं: कौन जिम्मेदार है जब एआई सिस्टम हमें नुकसान पहुंचाता है? हम इन नुकसानों को कैसे समझते हैं, और हम उन्हें कैसे मापते हैं? हस्तक्षेप के बिंदु कहां हैं, और उन हस्तक्षेपों को प्रभावी बनाने के लिए क्या अतिरिक्त अनुसंधान और विनियमन की आवश्यकता है? वर्तमान में इन सवालों के कुछ जवाब हैं, और मौजूदा विनियामक ढांचे क्या जरूरत है की अच्छी तरह से कम है। जैसे-जैसे इन प्रणालियों की व्यापकता, जटिलता और पैमाने बढ़ते हैं, यह सार्थक जवाबदेही और निगरानी की कमी होती है - जिम्मेदारी, दायित्व और कारण प्रक्रिया के बुनियादी सुरक्षा उपायों सहित - एक तेजी से जरूरी चिंता है।

हमारे 2016 और 2017 की रिपोर्ट पर बिल्डिंग, एआई नाउ 2018 रिपोर्ट इस केंद्रीय समस्या से जूझती है, और 10 व्यावहारिक सिफारिशें प्रदान करती है जो इन शक्तिशाली प्रौद्योगिकियों को संचालित करने में सक्षम जवाबदेही ढांचे को बनाने में मदद कर सकती हैं।

अनुशंसाएँ

1. सरकारों को डोमेन द्वारा इन तकनीकों की देखरेख, ऑडिट और निगरानी के लिए सेक्टर-विशिष्ट एजेंसियों की शक्तियों का विस्तार करके AI को विनियमित करने की आवश्यकता है।

पर्याप्त शासन, निरीक्षण या जवाबदेही व्यवस्था के बिना एआई सिस्टम के कार्यान्वयन का तेजी से विस्तार हो रहा है। स्वास्थ्य, शिक्षा, आपराधिक न्याय और कल्याण जैसे डोमेन सभी के अपने इतिहास, नियामक ढांचे और खतरे हैं। हालांकि, एक राष्ट्रीय एआई सुरक्षा निकाय या सामान्य एआई मानकों और प्रमाणन मॉडल, क्षेत्रीय विनियमन की आवश्यकता को पूरा करने के लिए संघर्ष करेगा, जो कि आवश्यक है। हमें एक सेक्टर-विशिष्ट दृष्टिकोण की आवश्यकता है जो प्रौद्योगिकी को प्राथमिकता नहीं देता है, लेकिन किसी दिए गए डोमेन के भीतर इसके आवेदन पर ध्यान केंद्रित करता है। सेक्टर-विशिष्ट दृष्टिकोणों के उपयोगी उदाहरणों में संयुक्त राज्य संघीय उड्डयन प्रशासन और राष्ट्रीय राजमार्ग यातायात सुरक्षा प्रशासन शामिल हैं।

2. चेहरे की पहचान और प्रभावित मान्यता को सार्वजनिक हित की रक्षा के लिए कड़े नियमन की आवश्यकता है।

इस तरह के विनियमन में राष्ट्रीय कानूनों को शामिल किया जाना चाहिए जिसमें मजबूत निरीक्षण, स्पष्ट सीमाएं और सार्वजनिक पारदर्शिता की आवश्यकता होती है। समुदायों को सार्वजनिक और निजी दोनों संदर्भों में इन तकनीकों के आवेदन को अस्वीकार करने का अधिकार होना चाहिए। उनके उपयोग की सार्वजनिक सूचना पर्याप्त नहीं है, और दमनकारी और निरंतर जन निगरानी के खतरों को देखते हुए, किसी भी सहमति के लिए एक उच्च सीमा होनी चाहिए। मान्यता को प्रभावित करने के लिए विशेष ध्यान देने योग्य है। मान्यता को प्रभावित करना चेहरे की पहचान का एक उपवर्ग है जो व्यक्तित्व, आंतरिक भावनाओं, मानसिक स्वास्थ्य, और चेहरे की छवियों या वीडियो के आधार पर "कार्यकर्ता सगाई" जैसी चीजों का पता लगाने का दावा करता है। ये दावे मजबूत वैज्ञानिक साक्ष्य द्वारा समर्थित नहीं हैं, और अनैतिक और गैरजिम्मेदार तरीके से लागू किए जा रहे हैं जो अक्सर फेनोलॉजी और फिजियोलॉजी के छद्म विज्ञान को याद करते हैं। एक व्यक्ति और सामाजिक स्तर पर, भर्ती से मान्यता को प्रभावित करने, बीमा, शिक्षा और पुलिसिंग तक पहुंच को जोखिम से गहराई से संबंधित बनाता है।

3. एआई उद्योग को तत्काल शासन के नए दृष्टिकोण की आवश्यकता है।

जैसा कि यह रिपोर्ट प्रदर्शित करती है, अधिकांश प्रौद्योगिकी कंपनियों में आंतरिक शासन संरचनाएं एआई सिस्टम के लिए जवाबदेही सुनिश्चित करने में विफल हो रही हैं। सरकारी विनियमन एक महत्वपूर्ण घटक है, लेकिन एआई उद्योग में अग्रणी कंपनियों को आंतरिक जवाबदेही संरचनाओं की भी आवश्यकता होती है जो नैतिकता के दिशा-निर्देशों से परे हैं। इसमें निदेशक मंडल, बाहरी नैतिकता सलाहकार बोर्ड, और स्वतंत्र निगरानी और पारदर्शिता प्रयासों के कार्यान्वयन पर रैंक और फ़ाइल कर्मचारी प्रतिनिधित्व शामिल होना चाहिए। तीसरे पक्ष के विशेषज्ञों को कुंजी प्रणालियों के बारे में ऑडिट और प्रकाशित करने में सक्षम होना चाहिए, और कंपनियों को यह सुनिश्चित करने की आवश्यकता है कि उनके एआई अवसंरचना को "नाक से पूंछ तक", उनके अंतिम आवेदन और उपयोग सहित समझा जा सकता है।

4. एआई कंपनियों को व्यापार गोपनीयता और अन्य कानूनी दावों को माफ करना चाहिए जो सार्वजनिक क्षेत्र में जवाबदेही के रास्ते में खड़े हैं।

सरकार में उपयोग के लिए AI और स्वचालित निर्णय प्रणाली बनाने वाले विक्रेताओं और डेवलपर्स को किसी भी व्यापार गोपनीयता या अन्य कानूनी दावे को माफ करने के लिए सहमत होना चाहिए जो उनके सॉफ्टवेयर की पूर्ण ऑडिटिंग और समझ को रोकता है। कॉर्पोरेट गोपनीयता कानून नियत प्रक्रिया के लिए एक बाधा हैं: वे "ब्लैक बॉक्स प्रभाव" में योगदान करते हैं, सिस्टम अपारदर्शी और अस्वीकार्य प्रतिपादन करते हैं, जिससे पूर्वाग्रह, प्रतियोगिता निर्णय या उपाय त्रुटियों का आकलन करना कठिन हो जाता है। सार्वजनिक क्षेत्र में उपयोग के लिए इन तकनीकों की खरीद करने वाले किसी भी व्यक्ति को मांग करनी चाहिए कि विक्रेता किसी भी समझौते में प्रवेश करने से पहले इन दावों को माफ कर दें।

5. प्रौद्योगिकी कंपनियों को कर्तव्यनिष्ठ आक्षेपकर्ताओं, कर्मचारी आयोजन और नैतिक व्हिसलब्लोअर के लिए सुरक्षा प्रदान करनी चाहिए।

प्रौद्योगिकी श्रमिकों द्वारा आयोजन और प्रतिरोध जवाबदेही और नैतिक निर्णय लेने के लिए एक शक्ति के रूप में उभरा है। प्रौद्योगिकी कंपनियों को काम करने, सीटी बजाने, और उन परियोजनाओं के बारे में नैतिक चुनाव करने की क्षमता की रक्षा करने की जरूरत है, जिन पर वे काम करते हैं। इसमें ईमानदार आपत्तियों को समायोजित करने और उनकी रक्षा करने वाली स्पष्ट नीतियां शामिल होनी चाहिए, जिससे श्रमिकों को यह जानने का अधिकार मिल सके कि वे क्या काम कर रहे हैं, और प्रतिशोध या प्रतिशोध के बिना ऐसे काम से दूर रहने की क्षमता। नैतिक सरोकारों को बढ़ाने वाले कार्यकर्ताओं को भी संरक्षित किया जाना चाहिए, क्योंकि सार्वजनिक हित में सीटी बजानी चाहिए।

6. उपभोक्ता संरक्षण एजेंसियों को एआई उत्पादों और सेवाओं के लिए "सत्य-इन-विज्ञापन" कानूनों को लागू करना चाहिए।

AI के चारों ओर प्रचार केवल बढ़ रहा है, जिससे विपणन वादों और वास्तविक उत्पाद प्रदर्शन के बीच अंतराल बढ़े हैं। इन अंतरालों के कारण दोनों व्यक्तियों और वाणिज्यिक ग्राहकों के लिए जोखिम बढ़ता है, अक्सर गंभीर परिणामों के साथ। अन्य उत्पादों और सेवाओं की तरह जो गंभीरता से प्रभाव या आबादी का दोहन करने की क्षमता रखते हैं, एआई विक्रेताओं को उच्च मानकों के लिए रखा जाना चाहिए जो वे वादा कर सकते हैं, खासकर जब इन वादों को वापस लेने के वैज्ञानिक सबूत अपर्याप्त हैं और दीर्घकालिक परिणाम अज्ञात हैं ।

7. प्रौद्योगिकी कंपनियों को "पाइपलाइन मॉडल" से परे जाना चाहिए और अपने कार्यस्थलों में बहिष्करण और भेदभाव की प्रथाओं को संबोधित करना चाहिए।

प्रौद्योगिकी कंपनियों और एक पूरे क्षेत्र के रूप में AI क्षेत्र "पाइपलाइन मॉडल" पर ध्यान केंद्रित किया है, और अधिक विविध कर्मचारियों को प्रशिक्षित और किराए पर लेना चाहते हैं। हालांकि यह महत्वपूर्ण है, यह अनदेखी करता है कि क्या होता है जब लोग एक बार कार्यस्थलों में काम पर रखे जाते हैं जो लिंग, जाति, कामुकता या विकलांगता के आधार पर लोगों को बहिष्कृत करते हैं, या व्यवस्थित रूप से अंडरवैल्यू करते हैं। कंपनियों को अपने कार्यस्थलों में गहन मुद्दों की जांच करने की आवश्यकता है, और बहिष्करण संस्कृतियों और उनके द्वारा निर्मित उत्पादों के बीच संबंध, जो पूर्वाग्रह और भेदभाव को बनाए रखने वाले उपकरण का उत्पादन कर सकते हैं। फ़ोकस में यह बदलाव व्यावहारिक कार्रवाई के साथ होना चाहिए, जिसमें वेतन और अवसर की असमानता को समाप्त करने की प्रतिबद्धता के साथ-साथ काम पर रखने और प्रतिधारण के बारे में पारदर्शिता के उपाय भी शामिल हैं।

8. एआई में निष्पक्षता, जवाबदेही और पारदर्शिता के लिए "पूर्ण स्टैक आपूर्ति श्रृंखला" के एक विस्तृत खाते की आवश्यकता होती है।

सार्थक जवाबदेही के लिए, हमें एआई सिस्टम के घटक भागों और पूर्ण आपूर्ति श्रृंखला को बेहतर ढंग से समझने और ट्रैक करने की आवश्यकता है, जिस पर यह निर्भर करता है: इसका मतलब है कि प्रशिक्षण डेटा, परीक्षण डेटा, मॉडल, एप्लिकेशन प्रोग्राम इंटरफेस (एपीआई) की उत्पत्ति और उपयोग के लिए लेखांकन ), और एक उत्पाद जीवन चक्र पर अन्य अवसंरचनात्मक घटक। हम इस लेखांकन को AI सिस्टम के "पूर्ण स्टैक सप्लाई चेन" के लिए कहते हैं, और यह ऑडिटिंग के अधिक जिम्मेदार रूप के लिए एक आवश्यक शर्त है। पूर्ण स्टैक आपूर्ति श्रृंखला में एआई सिस्टम की सही पर्यावरणीय और श्रम लागतों को समझना भी शामिल है। इसमें ऊर्जा उपयोग, सामग्री मॉडरेशन और प्रशिक्षण डेटा निर्माण के लिए विकासशील दुनिया में श्रम का उपयोग और एआई सिस्टम को विकसित करने और बनाए रखने के लिए क्लिकवर्कर्स पर निर्भरता शामिल है।

9. मुकदमेबाजी, श्रम आयोजन और एआई जवाबदेही मुद्दों पर सामुदायिक भागीदारी के लिए अधिक धन और समर्थन की आवश्यकता है।

एआई सिस्टम से नुकसान का खतरा सबसे अधिक लोगों को अक्सर कम से कम परिणामों से लड़ने में सक्षम होता है। हमें कानूनी निवारण और नागरिक भागीदारी के मजबूत तंत्र के लिए समर्थन बढ़ाने की आवश्यकता है। इसमें सार्वजनिक अधिवक्ताओं का समर्थन करना शामिल है जो एल्गोरिथम निर्णय लेने, नागरिक समाज संगठनों और श्रम आयोजकों के कारण सामाजिक सेवाओं से कटे हुए लोगों का प्रतिनिधित्व करते हैं जो ऐसे समूहों का समर्थन करते हैं जो नौकरी के नुकसान और शोषण के जोखिम में हैं, और समुदाय-आधारित बुनियादी ढांचे जो सार्वजनिक भागीदारी को सक्षम करते हैं।

10. विश्वविद्यालय एआई कार्यक्रमों को कंप्यूटर विज्ञान और इंजीनियरिंग विषयों से परे विस्तार करना चाहिए।

एआई एक अंतःविषय क्षेत्र के रूप में शुरू हुआ, लेकिन दशकों से एक तकनीकी अनुशासन बनने के लिए संकुचित हो गया है। सामाजिक प्रणालियों के लिए AI सिस्टम के बढ़ते अनुप्रयोग के साथ, इसे अपने अनुशासनात्मक अभिविन्यास का विस्तार करने की आवश्यकता है। इसका मतलब है कि सामाजिक और मानवतावादी विषयों से विशेषज्ञता के रूपों को केंद्रित करना। एआई प्रयास जो वास्तव में सामाजिक निहितार्थों को संबोधित करना चाहते हैं, वे केवल कंप्यूटर विज्ञान और इंजीनियरिंग विभागों के भीतर नहीं रह सकते हैं, जहां संकाय और छात्रों को सामाजिक दुनिया पर शोध करने के लिए प्रशिक्षित नहीं किया जाता है। एआई अनुसंधान के अनुशासनात्मक अभिविन्यास का विस्तार सामाजिक संदर्भों पर गहराई से ध्यान केंद्रित करेगा, और इन प्रणालियों को मानव आबादी पर लागू होने पर संभावित खतरों पर अधिक ध्यान केंद्रित करेगा।

पूरी रिपोर्ट आप यहां पढ़ सकते हैं।