एआई में नैतिकता का निर्माण कैसे करें - भाग II

एआई में मानवता को बनाए रखने के लिए अनुसंधान-आधारित सिफारिशें

गेटी इमेजेज क्रेडिट द्वारा आईस्टॉक: एंड्रीपोपोव

यह एआई में नैतिकता का निर्माण करने के बारे में एक दो-भाग श्रृंखला का हिस्सा है। भाग मैंने आपकी कंपनी और टीम में एक नैतिक संस्कृति की खेती पर ध्यान केंद्रित किया, साथ ही साथ आपकी कंपनी के भीतर और बाहरी रूप से पारदर्शी रहा। इस लेख में, हम आपके डेटा और एल्गोरिदम से बहिष्करण को हटाने के लिए तंत्र पर ध्यान केंद्रित करेंगे। हमारे द्वारा किए जाने वाले सभी हस्तक्षेप या कार्यों में, यहां की प्रगति में परिवर्तन की दर सबसे अधिक है। डेटा और एल्गोरिदम में पूर्वाग्रह को पहचानने और संबोधित करने के लिए नए दृष्टिकोण उभर रहे हैं, जिसका मतलब है कि ग्राहकों को इस उभरती हुई प्रौद्योगिकी के बराबर रहना चाहिए।

बहिष्करण निकालें

पूर्वाग्रह के लिए एआई प्रणाली में प्रवेश करने के कई तरीके हैं। उन्हें ठीक करने के लिए, उन्हें पहली जगह में पहचानना आवश्यक है।

शामिल कारकों को समझें

उन कारकों की पहचान करें जो आपके एल्गोरिदम में मुख्य और परस्पर हैं।

डिजिटल लेंडिंग ऐप एक मोबाइल डिवाइस से वैकल्पिक डेटा के टन जैसे दैनिक स्थान पैटर्न, सोशल मीडिया गतिविधि, पाठ संदेशों का विराम चिह्न, या उनके कितने संपर्कों में ऋणों को स्वीकृत या अस्वीकार करने या उच्च ब्याज दर वसूलने के अंतिम नाम हैं। उदाहरण के लिए, धूम्रपान करने वाले और देर रात के इंटरनेट उपयोगकर्ता ऋण चुकाने में खराब होते हैं। यह डेटा आम तौर पर उपयोगकर्ता की जागरूकता के बिना एकत्र किया जाता है क्योंकि अनुमति सेवा (टीओएस) की शर्तों में दफन है।

दोनों इंजीनियर और अंतिम उपयोगकर्ता "ब्लैक बॉक्स" के साथ असहज हैं। वे उन इनपुटों को समझना चाहते हैं जो सिफारिशें बनाने में गए थे। हालांकि, यह स्पष्ट करना लगभग असंभव हो सकता है कि एक AI एक सिफारिश के साथ कैसे आया। ऊपर दिए गए उधार उदाहरण में, यह याद रखना महत्वपूर्ण है कि सहसंबंध बराबर कार्य नहीं करता है और महत्वपूर्ण निर्णय किए जाने पर कनेक्शन के बारे में गंभीर रूप से सोचने के लिए, उदाहरण के लिए, गृह ऋण अनुमोदन।

ऐसे कौन से कारक हैं, जिन्हें हेरफेर करने पर, AI की सिफारिश के परिणाम में परिवर्तन होता है? उपयोग किए जा रहे कारकों को समझने और उन्हें चालू / बंद करने से, निर्माता और उपयोगकर्ता यह देख सकते हैं कि प्रत्येक कारक एआई को कैसे प्रभावित करता है और इसके परिणामस्वरूप पक्षपाती फैसले होते हैं।

क्रिस्टोफ़ मोलनार द्वारा ब्लैक बॉक्स मॉडल को स्पष्ट करने के लिए यह गाइड गहरी खुदाई करने का एक प्रयास है। 2015 में Google के शोधकर्ताओं द्वारा एक अन्य विधि का प्रदर्शन किया गया था। उन्होंने एक गहरी सीखने-आधारित छवि मान्यता एल्गोरिदम को इंजीनियर किया, ताकि तस्वीरों में ऑब्जेक्ट्स को स्पॉट करने के बजाय, यह उन विशेषताओं को खोज या संशोधित कर सके, जिन्हें प्रोग्राम बारबेल को पहचानने के लिए प्रोग्राम का उपयोग करता है। या अन्य ऑब्जेक्ट।

Microsoft की समावेशी डिज़ाइन टीम ने उनके डिज़ाइन टूल में जोड़ा है और AI में बहिष्करण को मान्यता देने के लिए दिशानिर्देशों का एक सेट संसाधित करता है। इस खंड में शेष सिफारिशें इन पांच प्रकार के पूर्वाग्रह पर उनके मध्यम पद से प्रेरित हैं।

डेटासैट बायस को रोकें

पहचानें कि आपके डेटासेट में किसे या क्या बहिष्कृत किया जा रहा है या ओवररप्रेट किया गया है, उन्हें बाहर क्यों रखा गया है और इसे कैसे कम किया जाए।

"3 सफेद किशोर" और फिर "3 काले किशोर" पर Google खोज करें और आप गोरे किशोरों के लिए ज्यादातर स्टॉक तस्वीरें देखेंगे और ज्यादातर काले किशोर के लिए शॉट्स मग करेंगे। यह डेटासेट में अश्वेत किशोरों की स्टॉक फ़ोटो की कमी का परिणाम है, लेकिन यह देखना आसान है कि कैसे एक एआई सिस्टम एक काले बनाम श्वेत किशोर की संभावना के बारे में पक्षपाती निष्कर्ष निकालेगा यदि इसे इस डेटासेट पर प्रशिक्षित किया गया था।

डेटासेट पूर्वाग्रह एक समूह के अधिक या कम विवरण में परिणाम देता है। उदाहरण के लिए, आपका डेटा सेट आपके उपयोगकर्ता की बाकी आबादी का प्रतिनिधित्व करने के तहत आपके सबसे उन्नत उपयोगकर्ताओं के लिए भारी हो सकता है। इसका परिणाम यह हो सकता है कि कोई ऐसा उत्पाद या सेवा प्रदान की जाए जो आपके उपयोगकर्ताओं से प्यार करता हो, जबकि आपके बाकी उपयोगकर्ताओं को बढ़ने और पनपने का अवसर कभी न दे। तो यह कैसा दिखता है और आप इसे कैसे ठीक करते हैं?

  • क्या: आपके डेटा सेट का अधिकांश भाग उपयोगकर्ताओं के एक समूह द्वारा दर्शाया जाता है।
    कैसे: लागत-संवेदी शिक्षण, नमूना तरीकों में बदलाव और मशीन सीखने में असंतुलित कक्षाओं से निपटने के लिए विसंगति जैसी विधियों का उपयोग करें।
  • क्या: बहुमत पर लागू होने वाले सांख्यिकीय पैटर्न अल्पसंख्यक समूह के भीतर अमान्य हो सकते हैं।
    कैसे: एक आकार-फिट-सभी के बजाय विभिन्न समूहों के लिए अलग-अलग एल्गोरिदम बनाएं।
  • क्या: श्रेणियाँ या लेबल डेटा बिंदुओं की निगरानी करते हैं और डेटा के कुछ प्रतिशत के लिए गलत हो सकते हैं।
    कैसे: पथ-विशिष्ट जवाबी निष्पक्षता का उपयोग करके मूल्यांकन करें। यह मशीनों के लिए निर्णय लेने का एक रूप है, जहां किसी के बारे में एक निर्णय को उचित के रूप में पहचाना जाता है अगर यह एक ही निर्णय होता है कि वह व्यक्ति अनुचित रास्ते के साथ एक अलग जनसांख्यिकीय समूह में था, (उदाहरण के लिए, अगर एक महिला एक पुरुष थी, या एक श्वेत व्यक्ति काला था), जैसा कि परमी ओल्सन ने समझाया था।
  • क्या: पहचानें कि किसे बाहर रखा जा रहा है और आपके उपयोगकर्ताओं के साथ-साथ आपकी निचली पंक्ति पर क्या प्रभाव पड़ता है। संदर्भ और संस्कृति मायने रखती है लेकिन डेटा में इसे "देखना" असंभव हो सकता है।
    कैसे: अज्ञात अज्ञात की पहचान करें, जैसा कि स्टैनफोर्ड और माइक्रोसॉफ्ट रिसर्च के शोधकर्ताओं ने सुझाया है।

एसोसिएशन बायस को रोकें

निर्धारित करें कि क्या आपका प्रशिक्षण डेटा या लेबल स्टीरियोटाइप (जैसे, लिंग, जातीय) का प्रतिनिधित्व करते हैं और उन्हें आवर्धित करने से बचने के लिए उन्हें संपादित करते हैं।

छवि पहचान एआई सिस्टम को प्रशिक्षित करने के लिए उपयोग किए जाने वाले फोटो डेटासेट में शोधकर्ताओं ने पाया कि ड्राइविंग, शूटिंग और कोचिंग से जुड़ी तस्वीरों में कुकिंग, खरीदारी और धुलाई से जुड़ी तस्वीरों में डेटा की तुलना में डेटा की तुलना में डेटा की तुलना में डेटा की संख्या में पुरुषों में महिलाओं की संख्या अधिक थी।

एसोसिएशन पूर्वाग्रह तब होता है जब डेटा एक मॉडल को प्रशिक्षित करने के लिए उपयोग किया जाता है और एक स्टीरियोटाइप को बढ़ाता है, जो छवियों तक सीमित नहीं है। उदाहरण के लिए, तुर्की जैसे लिंग तटस्थ भाषाओं में, Google अनुवाद "मेहनती", "डॉक्टर," और "राष्ट्रपति" और "वह" जैसे शब्दों के साथ "वह" जोड़कर लिंग पूर्वाग्रह दिखाता है, जैसे "आलसी," "नर्स" "और" नानी। "इसी तरह के पूर्वाग्रह Google समाचार खोज में भी पाए गए हैं।

दुर्भाग्य से, इन बायस्ड डेटासेट्स का उपयोग करके मशीन सीखने वाले ऐप उन पूर्वाग्रहों को बढ़ाएंगे। फोटो उदाहरण में, कुकिंग से जुड़े फोटो में पुरुषों की तुलना में 33% अधिक महिलाएं थीं, लेकिन एल्गोरिथ्म ने उस पूर्वाग्रह को 68% तक बढ़ा दिया! यह भेदभावपूर्ण मॉडल (जेनेरिक मॉडल के विपरीत) का उपयोग करने का परिणाम है, जो डेटा में सामान्यीकरण (पूर्वाग्रह) को बढ़ाकर एल्गोरिदम की सटीकता बढ़ाते हैं। यदि आप और अधिक सीखना चाहते हैं, तो लौरा डगलस इस प्रक्रिया को खूबसूरती से समझाती है।

पूर्वाग्रह प्रवर्धन के परिणाम का अर्थ है कि केवल डेटासेट्स को छोड़ना-जैसा कि यह "वास्तविकता" का प्रतिनिधित्व करता है (जैसे, यूएस में 91% नर्स महिला हैं) सही दृष्टिकोण नहीं है क्योंकि एआई पहले से असंतुलित परिप्रेक्ष्य को विकृत करता है। इससे लोगों को यह महसूस करना मुश्किल हो जाता है कि आज नौकरी के लिए कई पुरुष नर्स हैं और वे महिलाओं की तुलना में अधिक वेतन कमाते हैं, उदाहरण के लिए।

शोधकर्ताओं ने कॉरपस-स्तरीय बाधाओं और डिबिसिंग शब्द एम्बेडिंग का उपयोग करके लिंग पूर्वाग्रह प्रवर्धन को कम करके सटीकता को बनाए रखते हुए अनुचित पूर्वाग्रह के लिए सही करने के तरीके खोजे हैं। यदि आपका AI सिस्टम समय के साथ सीखता है, तो यह सुनिश्चित करने के लिए नियमित रूप से आपके सिस्टम के परिणामों की जांच करना आवश्यक है कि पूर्वाग्रह एक बार फिर आपके डेटासेट में नहीं आए हैं। पूर्वाग्रह को संबोधित करना एक बार तय नहीं है; इसके लिए निरंतर सतर्कता की आवश्यकता है।

पूर्वाग्रह प्रवर्धन के परिणाम का अर्थ है कि केवल डेटासेट्स को छोड़ना-क्योंकि यह "वास्तविकता" का प्रतिनिधित्व करता है ... यह सही दृष्टिकोण नहीं है क्योंकि एआई पहले से असंतुलित परिप्रेक्ष्य को विकृत करता है।

पुष्टि पूर्वाग्रह को रोकें

निर्धारित करें कि सिस्टम में पूर्वाग्रह एक स्व-पूर्ण भविष्यवाणी बना रहा है और पसंद की स्वतंत्रता को रोक रहा है।

कुछ अदालती प्रणालियों द्वारा इस्तेमाल किए जाने वाले कॉम्पास एआई सिस्टम ने एक अपराधी के पुनर्मिलन के जोखिम के बारे में भविष्यवाणी करने के लिए कहा कि रंग के लोगों के खिलाफ प्रणालीगत बुनियादी दिखाया गया है जिसके परिणामस्वरूप पैरोल या लंबे समय तक जेल की सजा से इनकार किया गया है।

पुष्टिकरण पूर्वाग्रह एक समूह या व्यक्ति के बारे में पूर्व धारणाओं को पुष्ट करता है। यह एक व्यक्ति या उनके द्वारा पहले चुने गए विकल्पों के समान जानकारी या विकल्प पेश करके एक प्रतिध्वनि कक्ष में परिणत होता है। ऊपर दिए गए उदाहरण में, प्रोपोलिसा के एक लेख ने प्रदर्शित किया कि कॉम्पास एआई द्वारा उपयोग किए जाने वाले एल्गोरिथ्म में काले प्रतिवादियों को गलत तरीके से वर्गीकृत करने की अधिक संभावना थी, क्योंकि पुनर्मिलन का एक उच्च जोखिम होने और कम जोखिम वाले सफेद प्रतिवादियों को गलत तरीके से वर्गीकृत करने की अधिक संभावना थी। एक अन्य अध्ययन से पता चला है कि अप्रभावीवाद की भविष्यवाणी करने के लिए केवल छह कारकों का उपयोग करने वाले अप्रशिक्षित अमेज़ॅन मैकेनिकल तुर्क श्रमिकों ने 157 कारकों (क्रमशः 67% बनाम 65% सटीकता) का उपयोग करके कॉम्पास के रूप में सटीक थे।

यहां तक ​​कि जब दौड़ का उपयोग किए गए कारकों में से एक नहीं था, तब भी दोनों को गलत अनुमान लगाने की अधिक संभावना थी कि काले प्रतिवादी फिर से संगठित होंगे और सफेद प्रतिवादी नहीं होंगे। ऐसा इसलिए है क्योंकि कुछ डेटा पॉइंट्स (जैसे, जेल में समय) भागदौड़ की प्रतिक्रिया पैदा करने के लिए एक प्रॉक्सी हैं, जो कि उन लोगों पर प्रतिकूल प्रभाव डालते हैं जो पहले से ही सामाजिक रूप से वंचित हैं।

कम्पास प्रणाली सिर्फ एक उदाहरण है, लेकिन जनसंख्या के एक हिस्से को यहां कई प्रणालियों से समान पूर्वाग्रह का सामना करना पड़ता है, जिनमें भविष्यवाण्डी पुलिसिंग, उधार देने वाले ऐप, सवारी करने वाली सेवाओं और एआई सहायकों सहित चर्चा की गई है। कोई केवल कल्पना कर सकता है कि प्रत्येक दिन कई मोर्चों पर पूर्वाग्रह और बहिष्कार का सामना करना कितना भारी होगा। अन्य प्रकार के पूर्वाग्रह के साथ, आप पूर्वाग्रह को देखने के लिए अपने परिणामों का परीक्षण करना चाहिए, पूर्वाग्रह कारकों की पहचान करें, और फिर इन भगोड़ा प्रतिक्रिया छोरों को तोड़ने के लिए उन्हें हटा दें।

स्वचालन पूर्वाग्रह को रोकें

पहचानें कि आपके मूल्य उपयोगकर्ता के मूल्यों को कब तक लिखते हैं और उपयोगकर्ताओं को इसे पूर्ववत करने के तरीके प्रदान करते हैं।

सौंदर्य के अपने आकलन में एआई सौंदर्य प्रतियोगिता निष्पक्ष होने की उम्मीद थी लेकिन लगभग सभी विजेता सफेद थे।

ऑटोमेशन पूर्वाग्रह अल्पसंख्यक पर बहुमत के मूल्यों को मजबूर करता है, जो विविधता और पसंद की स्वतंत्रता को नुकसान पहुंचाता है। एआई प्रणाली के रचनाकारों के मूल्य फिर से स्थायी हैं। उपरोक्त उदाहरण में, एक एआई सौंदर्य प्रतियोगिता मुख्य रूप से सफेद चेहरों को प्रशिक्षण डेटा के आधार पर सबसे सुंदर के रूप में लेबल करती है। सौंदर्य के यूरोपीय मानकों ने आज गैर-यूरोपीय लोगों की तस्वीरों की गुणवत्ता को प्रभावित किया है, जिसके परिणामस्वरूप अंधेरे-चमड़ी वाले लोगों की तस्वीरें पूर्ववत हैं और एआई सिस्टम को पहचानने में कठिनाई हो रही है। इसके परिणामस्वरूप अपमानजनक लेबल (उदा।, Google फ़ोटो "गोरिल्ला घटना") और सूचनाएँ (जैसे, "स्मार्ट" कैमरे एशियाइयों से पूछते हैं कि क्या वे पलक झपकते हैं)। इससे भी बदतर, पुलिस के चेहरे की पहचान प्रणाली अफ्रीकी अमेरिकियों को काफी प्रभावित करती है।

इस पूर्वाग्रह को संबोधित करने के लिए, किसी को मान-आधारित पूर्वाग्रह के परिणामों की जांच करके शुरू करना चाहिए (उदाहरण के लिए, प्रशिक्षण डेटा में सभी उपयोगकर्ताओं या व्यापक आबादी का प्रतिनिधित्व करने के लिए विविधता की कमी है, व्यक्तिपरक लेबल निर्माता के मूल्यों का प्रतिनिधित्व करते हैं)।

उधार लेने वाले ऐप्स के पहले के उदाहरण में कि कोई व्यक्ति धूम्रपान करने वाला है या नहीं, इसके आधार पर निर्णय लिया जाता है, यह सवाल पूछा जाना चाहिए कि क्या यह रचनाकारों या बहुसंख्यक आबादी के मूल्यों का प्रतिनिधित्व करता है (जैसे, धूम्रपान करना बुरा है इसलिए धूम्रपान करने वाले बुरे हैं)। अपने उपयोगकर्ताओं से फीडबैक प्राप्त करने के लिए सामाजिक-प्रणाली विश्लेषण पर लौटें ताकि यह पता लगाया जा सके कि उनके मूल्यों या सांस्कृतिक विचारों को अधिलेखित किया जा रहा है या नहीं। क्या आपके उपयोगकर्ता AI के समान मूल्यांकन या अनुशंसाएँ करेंगे? यदि नहीं, तो मूल्यों की विविधता का प्रतिनिधित्व करने के लिए प्रशिक्षण डेटा, लेबल और एल्गोरिदम को संशोधित करें।

बातचीत बिगाड़ें

समझें कि आपका सिस्टम वास्तविक समय के इंटरैक्शन से कैसे सीखता है और दुर्भावनापूर्ण इरादे को कम करने के लिए चेक लगाए।

इंस्पिरोबोट एआई का उपयोग करता है और यह सामग्री वेब से स्क्रैप करता है जिससे "प्रेरणादायक" उद्धरण उत्पन्न होते हैं लेकिन परिणाम बेहद अजीब से क्रूर और शून्यवादी होते हैं।

इंटरैक्शन पूर्वाग्रह तब होता है जब मनुष्य एआई सिस्टम को प्रभावित करने या जानबूझकर पक्षपाती परिणाम बनाने की कोशिश करते हैं। इंस्पिरोबोट के निर्माता रिपोर्ट करते हैं कि बॉट के उद्धरण वेब पर जो कुछ भी मिलते हैं, उसका प्रतिबिंब हैं और बॉट की शून्यवादी प्रवृत्ति को कम करने के उनके प्रयासों ने उन्हें केवल बदतर बना दिया है।

आप जानबूझकर अपने एआई सिस्टम को नुकसान पहुँचाने की कोशिश करने वाले लोगों से बचने में सक्षम नहीं हो सकते हैं, लेकिन आपको अपने एआई सिस्टम का दुरुपयोग करने और नुकसान पहुँचाने के तरीकों की पहचान करने के लिए हमेशा "पूर्व-मृत्यु" का आयोजन करना चाहिए। एक बार जब आप दुर्व्यवहार के लिए संभावित पहचान कर लेते हैं, तो आपको इसे रोकने के लिए जगह में चेक लगाने चाहिए और जहां संभव हो इसे ठीक कर लें। अपने सिस्टम को सीखने और नियमित रूप से पक्षपाती डेटा बिंदुओं का उपयोग करने के लिए डेटा की समीक्षा करें।

आप जानबूझकर अपने एआई सिस्टम को नुकसान पहुंचाने की कोशिश करने वाले लोगों से बचने में सक्षम नहीं हो सकते हैं, लेकिन आपको अपने एआई सिस्टम का दुरुपयोग करने और नुकसान पहुंचाने के तरीकों की पहचान करने के लिए हमेशा "पूर्व-गति" का आयोजन करना चाहिए।

यहाँ से कहाँ जाएं

एआई में पूर्वाग्रह हमारे व्यापक समाज में पूर्वाग्रह का प्रतिबिंब है। एआई में नैतिकता का निर्माण एक बहुत बड़ी समस्या के लक्षणों को ठीक कर रहा है। हमें एक ऐसे समाज के रूप में निर्णय लेना चाहिए कि हम सभी के लिए समानता और इक्विटी को महत्व देते हैं और फिर इसे वास्तविक जीवन में घटित करते हैं, न कि केवल हमारे एआई सिस्टम में। एआई में ग्रेट डेमोक्रेटाइज़र होने या सामाजिक अन्याय को बढ़ाने की क्षमता है और यह तय करना है कि आप उस स्पेक्ट्रम के किस पक्ष को अपने उत्पाद को चाहते हैं।

जस्टिन Tauber, Liz Balsam, मौली महार, Ayori Selassie, और Raymon Sagedjo- आपकी सभी प्रतिक्रिया के लिए धन्यवाद!

@SalesforceUX पर हमें का पालन करें।

हमारे साथ काम करना चाहते हैं? Uxcareers@salesforce.com से संपर्क करें