एआई - भाग I में नैतिकता का निर्माण कैसे करें

एआई में मानवता को बनाए रखने के लिए अनुसंधान-आधारित सिफारिशें

डिमडिच द्वारा

यह एआई में नैतिकता का निर्माण करने के बारे में दो-भाग श्रृंखला में से एक है। भाग एक आपकी कंपनी और टीम में एक नैतिक संस्कृति की खेती पर केंद्रित है, साथ ही साथ आपकी कंपनी के भीतर और बाहरी रूप से पारदर्शी है। भाग दो आपके डेटा और एल्गोरिदम से बहिष्करण को हटाने के लिए तंत्र पर केंद्रित है। प्रत्येक सिफारिश में नैतिक दुराचार के उदाहरण शामिल हैं और उन्हें कैसे रोका या कम किया जा सकता है।

ऐसा लगता है कि प्रत्येक दिन लेख हैं कि कैसे एक कृत्रिम बुद्धिमत्ता (एआई) प्रणाली के कारण अपराध हुआ (उदाहरण के लिए, अफ्रीकी अमेरिकियों को "गोरिल्ला" के रूप में लेबल करना) या वास्तविक नुकसान जब इरादे अच्छी तरह से अर्थ हो सकते हैं (जैसे, आपराधिक अभियोग में नस्लीय पूर्वाग्रह) सिफारिशें और ब्याज दरें)।

इन प्रणालियों में से प्रत्येक में डेवलपर्स ने किसी को रोकने या नुकसान पहुंचाने के लिए सेट नहीं किया और नकारात्मक परिणामों का अनुमान नहीं लगाया, लेकिन क्या उनके पास होना चाहिए? यदि आप एक AI सिस्टम डिजाइन और निर्माण कर रहे हैं, तो क्या आप नैतिकता में निर्माण कर सकते हैं? एक संगठन में आपकी भूमिका के बावजूद, क्या आप यह सुनिश्चित करने में मदद कर सकते हैं कि आपकी AI प्रणाली सामाजिक पूर्वाग्रहों को बनाए रखने के बजाय एक अधिक न्यायपूर्ण समाज की ओर ले जाती है? इन सभी सवालों का जवाब है, "हाँ!"

डू वेल एंड डू गुड

सेल्सफोर्स के सीईओ, मार्क बेनिओफ ने कहा है, "कंपनी के लिए मेरा लक्ष्य अच्छा काम करना और अच्छा करना है।" यह विश्वास, समानता और नवीनता के हमारे मूल मूल्यों के केंद्र में है। हम दृढ़ता से मानते हैं कि हम नवाचार में सबसे आगे हो सकते हैं, सफल हो सकते हैं, और दुनिया में अच्छे के लिए एक ताकत बन सकते हैं। हम आंतरिक रूप से आइंस्टीन (हमारी एआई प्रणाली) में नैतिकता के निर्माण पर काम करते हैं और एआई के लिए संयुक्त भागीदारी में अन्य सदस्यों के साथ सहयोग करते हैं।

आपके AI सिस्टम में एंबेडिंग एथिक्स में समय लगता है और आपको जिस तरह से या आपकी कंपनी ने हमेशा काम किया है, उससे अलग तरीके से काम करने की आवश्यकता हो सकती है। हालांकि, एआई के साथ नुकसान और लाभ दोनों के लिए बड़ी संभावना को देखते हुए, यह महत्वपूर्ण है कि आप निवेश करें!

एंड-टू-एंड दृष्टिकोण

आपके सिस्टम में नैतिकता के निर्माण की प्रक्रिया को तीन चरणों में विभाजित किया जा सकता है, जिसमें प्रत्येक के भीतर कई चरण होते हैं:

  1. एक नैतिक संस्कृति बनाएँ
  2. पारदर्शी बनो
  3. बहिष्करण निकालें

एक नैतिक संस्कृति बनाएँ

यदि आप शुरू करने के लिए एक मजबूत आधार नहीं बनाते हैं, तो सफल होने के लिए आवश्यक प्रयास हमेशा अधिक से अधिक होगा। इसमें एक विविध टीम का निर्माण, एक नैतिक मानसिकता की खेती और एक सामाजिक प्रणाली विश्लेषण का संचालन करना शामिल है।

एक विविध टीम बनाएँ

पूर्वाग्रह और सुविधा अंतराल से बचने के लिए पृष्ठभूमि और अनुभव की विविधता के लिए भर्ती करें।

जब 2014 में Apple का HealthKit सामने आया, तो यह आपकी रक्त अल्कोहल सामग्री को ट्रैक कर सकता है, लेकिन आप सबसे अधिक स्वास्थ्य संबंधी समस्या को ट्रैक नहीं कर सकते हैं, जो ज्यादातर महिलाएं हर महीने करती हैं।

अनुसंधान से पता चलता है (1, 2, 3, 4, 5, 6) कि विविध टीमें (अनुभव, दौड़, लिंग सहित) अधिक रचनात्मक, मेहनती और मेहनती हैं। सभी स्तरों पर अधिक महिलाओं को शामिल करना, विशेष रूप से शीर्ष प्रबंधन, उच्च मुनाफे में परिणाम।

विविधता का अभाव एक प्रतिध्वनि कक्ष बनाता है और पक्षपाती उत्पादों और फीचर अंतरालों में परिणाम देता है। यदि टीम की Apple की HealthKit को विकसित करने वाली टीम में अधिक (कोई भी?) महिलाएं होती हैं, तो वे संभवतः 50% आबादी के लिए अनुपस्थित अनुपस्थित सुविधा की पहचान करेंगे। यह उदाहरण लैंगिक विविधता की कमी की ओर इशारा करता है, लेकिन सभी प्रकार की विविधता की आवश्यकता है, उम्र और नस्ल से लेकर संस्कृति और शिक्षा तक।

यदि आप अधिक विविध टीम बनाने के लिए नए सदस्यों को नियुक्त करने में असमर्थ हैं, तो कंपनी और आपके उपयोगकर्ता आधार के विभिन्न कर्मचारियों से फीडबैक लें।

एक नैतिक मानसिकता की खेती करें

नैतिकता एक मानसिकता है, चेकलिस्ट नहीं। कर्मचारियों को सही काम करने के लिए सशक्त बनाएं।

उबेर के मुख्य कार्यकारी अधिकारी ने कंपनी को बदलाव करने के लिए व्हिसलब्लोअर को श्रेय दिया और "सही कंपनी के रूप में आगे बढ़ें"।

बस एक मुख्य नैतिक अधिकारी होने के कारण कंपनियों को नैतिक दुराचरण करने से नहीं रोका जा सकता है। ऐसा इसलिए है क्योंकि कोई भी व्यक्ति नैतिक रूप से कार्य करने वाली कंपनी के लिए जिम्मेदार नहीं हो सकता है या होना चाहिए। पूरे कंपनी में एक नैतिक मानसिकता होनी चाहिए।

व्यक्तिगत कर्मचारियों को सभी के साथ सहानुभूति रखने में सक्षम होना चाहिए कि उनका AI सिस्टम प्रभावित हो। कंपनियां पाठ्यक्रमों, इन-हाउस सहायता समूहों और समानता ऑडिट के माध्यम से एक नैतिक मानसिकता की खेती कर सकती हैं।

इसके अतिरिक्त, कर्मचारियों को एक-दूसरे को लगातार चुनौती देकर सशक्त महसूस करना चाहिए कि "क्या यह सही काम है?" उत्पाद समीक्षा और दैनिक स्टैंड-अप में, लोगों को अपने डोमेन के लिए विशिष्ट प्रश्न पूछना चाहिए। उदाहरण के लिए:

  • उत्पाद प्रबंधक: "हमारे एल्गोरिथ्म में एक गलत सकारात्मक या गलत नकारात्मक का व्यावसायिक प्रभाव क्या है?"
  • शोधकर्ता: “हमारे सिस्टम से कौन प्रभावित होगा और कैसे? इसका दुरुपयोग कैसे हो सकता है? लोग उत्पाद को तोड़ने या अनपेक्षित तरीकों से इसका उपयोग करने की कोशिश कैसे करेंगे? ”
  • डिजाइनर: “मैं उत्पाद में क्या चूक या धारणा बना रहा हूं? क्या मैं इसे पारदर्शिता और समानता के लिए डिजाइन कर रहा हूं? "
  • डेटा वैज्ञानिक और मॉडलर: "इस तरह से अपने मॉडल का अनुकूलन करके, मैं उन प्रभावितों के लिए क्या प्रभाव पैदा कर रहा हूं?"

जब कर्मचारी अपने प्राप्त उत्तरों से असंतुष्ट होते हैं, तो उसे हल करने के लिए एक तंत्र की आवश्यकता होती है।

बस एक मुख्य नैतिक अधिकारी होने के कारण कंपनियों को नैतिक दुराचरण करने से नहीं रोका जा सकता है। ऐसा इसलिए है क्योंकि कोई भी व्यक्ति नैतिक रूप से कार्य करने वाली कंपनी के लिए जिम्मेदार नहीं हो सकता है या होना चाहिए। पूरे कंपनी में एक नैतिक मानसिकता होनी चाहिए।

एक सामाजिक प्रणाली विश्लेषण का संचालन

AI डेटा में प्रणालीगत सामाजिक असमानताओं के प्रभाव को ठीक करने के लिए उत्पाद विकास जीवनचक्र के हर चरण में हितधारकों को शामिल करना।

शिकागो पुलिस विभाग ने बंदूक हिंसा में शामिल होने के उच्चतम जोखिम वाले लोगों की पहचान करने के लिए एक एआई-चालित भविष्य कहनेवाला पुलिसिंग कार्यक्रम का उपयोग किया। यह कार्यक्रम अपराध को कम करने में अप्रभावी पाया गया, लेकिन परिणामस्वरूप कुछ व्यक्तियों को गिरफ्तारी के लिए लक्षित किया गया।

सामाजिक-प्रणाली विश्लेषण उन समूहों और संस्थानों का अध्ययन है जो एक पारिस्थितिकी तंत्र में बातचीत करते हैं। यह मानने के बजाय कि एक प्रणाली का निर्माण किया जाएगा, सामाजिक प्रणाली विश्लेषण पूछता है कि क्या सिस्टम को पहली जगह में बनाया जाना चाहिए और फिर हितधारकों की जरूरतों और मूल्यों के आधार पर प्रणाली को डिजाइन करने के लिए आगे बढ़ता है। यह प्रभावित समुदाय में नृवंशविज्ञान का संचालन करके या एक ओवरसाइट समिति या कानूनी संस्था से प्रतिक्रिया प्राप्त करके किया जा सकता है।

शिकागो के पूर्वानुमानात्मक पुलिसिंग कार्यक्रम के उदाहरण का उल्लेख करते हुए, केट क्रॉफर्ड और रयान कैलो निम्नलिखित सुझाव देते हैं: "एक सामाजिक-प्रणाली दृष्टिकोण उस डेटा के सामाजिक और राजनीतिक इतिहास पर विचार करेगा, जिस पर गर्मी के नक्शे आधारित हैं। इस समुदाय के परामर्श सदस्यों की आवश्यकता हो सकती है और पड़ोस के पुलिसिंग के बारे में सकारात्मक और नकारात्मक दोनों के खिलाफ इस प्रतिक्रिया के खिलाफ पुलिस डेटा तौलना चाहिए। "

संगठनों को समझना चाहिए कि उनकी रचनाएँ उपयोगकर्ताओं और समाज को समग्र रूप से कैसे प्रभावित करती हैं। इन प्रभावों को समझकर, वे उन लोगों को निर्धारित कर सकते हैं जो सिस्टम के नकारात्मक प्रभावों के लिए सबसे कमजोर हैं। सांख्यिकीय दृष्टिकोण से, झूठे सकारात्मक या झूठे नकारात्मक (सांख्यिकीय दृष्टिकोण से उत्कृष्ट) का केवल 1% मौका हो सकता है, लेकिन इसके लिए जनसंख्या का 1%, परिणाम बेहद हानिकारक हो सकता है। क्या सिस्टम के जोखिम और पुरस्कार सभी पर समान रूप से लागू किए जा रहे हैं? एआई के परिणामों के आधार पर किसे लाभ होता है और किसे भुगतान करता है? प्री और पोस्ट-लॉन्च सहित एआई के विकास के हर चरण में यह सवाल पूछने से हानिकारक पूर्वाग्रह को पहचानने और इसे संबोधित करने में मदद मिल सकती है।

सांख्यिकीय दृष्टिकोण से, झूठे सकारात्मक या झूठे नकारात्मक का केवल 1% मौका हो सकता है, ... लेकिन इसके लिए जनसंख्या का 1%, परिणाम बेहद हानिकारक हो सकता है।

पारदर्शी बनो

नैतिक होने के लिए, आपको अपने, अपने उपयोगकर्ताओं / ग्राहकों और समाज के लिए पारदर्शी होना चाहिए। इसमें आपके मूल्यों को समझना, यह जानना कि कौन लाभ करता है और कौन भुगतान करता है, उपयोगकर्ताओं को अपने डेटा पर नियंत्रण देता है, और प्रतिक्रिया लेता है।

अपने मूल्यों को समझें

मूल्य-आधारित निर्णयों के परिणामों और व्यापार बंद की जांच करें।

कुछ लोगों को डर है कि सिरी और Google जैसे AI सहायक हमेशा सुन रहे हैं। उन्हें यह अनुमान लगाने के लिए डिज़ाइन किया गया है कि उपयोगकर्ताओं द्वारा पूछे जाने से पहले वे क्या जानना चाहते हैं, जिससे समय-समय पर अत्यंत उपयोगी जानकारी मिलती है। हालाँकि, यह गोपनीयता और सुरक्षा के प्रति जागरूक उपयोगकर्ताओं के बीच भी चिंता पैदा करता है।

निर्णय लेते समय किसी व्यक्ति या कंपनी के मूल्य संघर्ष में आ सकते हैं, जिसके परिणामस्वरूप समझौता हो जाता है। उदाहरण के लिए, उपयोगकर्ता व्यक्तिगत परिणामों की सुविधा से प्यार करते हैं, लेकिन इस बारे में चिंतित हो सकते हैं कि कोई कंपनी उनके बारे में क्या जानती है (गोपनीयता) या कंपनी उन्हें (भेदभाव) का खुलासा नहीं करने के लिए क्या चुन सकती है। दुर्भाग्य से, एआई सहायकों को सभी के लिए इतना उपयोगी नहीं पाया जाता है क्योंकि उनका प्रशिक्षण अफ्रीकी-अमेरिकी आवाजों को बाहर करने के लिए लगता है। जब ट्रेडऑफ किया जाता है, तो उन्हें प्रभावित होने वाले सभी लोगों के लिए स्पष्ट किया जाना चाहिए। यह मुश्किल हो सकता है अगर एआई एल्गोरिदम "ब्लैक बॉक्स" हैं जो उनके रचनाकारों को यह जानने से रोकते हैं कि निर्णय कैसे किए जाते हैं।

उन ट्रेडऑफ़ के प्रभाव को समझने के लिए परिणामों की लगातार परीक्षा आवश्यक है। मान लें कि आपकी कंपनी AI-एन्हांस्ड सिक्योरिटी सिस्टम डिज़ाइन कर रही है, जिसके परिणामस्वरूप व्यक्तिगत गोपनीयता का कुछ नुकसान होता है। निम्नलिखित को धयान मे रखते हुए:

  • यदि उपयोगकर्ता की गोपनीयता की रक्षा करना एक घोषित कंपनी मूल्य है, तो कर्मचारियों (न केवल शीर्ष निष्पादन) को इस ट्रेडऑफ़ के बारे में पता होना चाहिए।
  • इसके अतिरिक्त, ग्राहकों और जनता को सूचित किया जाना चाहिए कि सुरक्षा प्रणाली का उपयोग करके व्यक्तिगत गोपनीयता कैसे प्रभावित होती है।
  • यदि यह पीआर बैकलैश की आशंकाओं के लिए छिपा है, तो यह पूछा जाना चाहिए, "क्या उपयोगकर्ता की गोपनीयता वास्तव में कंपनी का मान है?"

यह बताते हुए कि कंपनी ने ट्रेडऑफ़ क्यों बनाया और नुकसान को कम करने के लिए वह क्या कर रही है, जनता का भरोसा बनाए रखने के लिए एक लंबा रास्ता तय कर सकती है।

उपयोगकर्ताओं को उनके डेटा का नियंत्रण दें

उपयोगकर्ताओं को आपके द्वारा एकत्र किए गए डेटा को सही करने या हटाने की अनुमति दें।

Google का लक्ष्य दुनिया की जानकारी को "सार्वभौमिक रूप से सुलभ और उपयोगी बनाना" है। 2014 से, उन्हें निजी व्यक्तियों, राजनेताओं, और सरकारी एजेंसियों को नुकसान पहुंचाने वाली सूचनाओं को हटाने के लिए 2.4 मिलियन "भूल जाने का अधिकार" प्राप्त हुआ है। हालाँकि, Google ने केवल 43.3% अनुरोधों का अनुपालन किया है।

कंपनियां अपने उपयोगकर्ताओं के बारे में, दुकानों में, और इंटरनेट-सक्षम (IoT) उपकरणों से डेटा की एक आश्चर्यजनक राशि एकत्र और ट्रैक कर सकती हैं। यह केवल नैतिक है कि उपयोगकर्ताओं को यह देखने की अनुमति दें कि आपने उनके बारे में क्या डेटा एकत्र किया है और इसे सही करने या डेटा को डाउनलोड करने और हटाने के लिए। यदि आपकी कंपनी यूरोपीय संघ में चल रही है, तो आपको यूरोपीय संघ के सामान्य डेटा संरक्षण विनियम (GDPR) के बारे में पता होना चाहिए और यह प्रभावित करता है कि आप क्या एकत्र कर सकते हैं और संग्रहीत कर सकते हैं, साथ ही उपयोगकर्ताओं / ग्राहकों को अपने डेटा को डाउनलोड करने और हटाने की अनुमति देने के आसपास के नियम भी। ।

इसके अलावा, सुनिश्चित करें कि डेटा का सही प्रतिनिधित्व करना संभव है। उदाहरण के लिए, क्या यह संभव है कि उपयोगकर्ता अपने लिंग को इंगित कर सकें यदि वे गैर-बाइनरी के रूप में पहचानते हैं? क्या उनके पास एक से अधिक नस्लीय पृष्ठभूमि का चयन करने का विकल्प है?

यदि एकत्र किए गए डेटा को अज्ञात किया जाता है और उपयोगकर्ताओं के लिए यह देखना संभव नहीं है कि कंपनी उनके बारे में वास्तव में क्या जानती है और इसे संपादित करती है, तो स्पष्ट रूप से एकत्र किए गए डेटा का संचार करें और व्यक्तियों को ऑप्ट-आउट करने में सक्षम करें। यदि उपयोगकर्ता डेटा संग्रह के बिना उत्पाद का उपयोग नहीं कर सकते हैं, तो भी संवाद करें।

फीडबैक लें

उपयोगकर्ताओं को उनके बारे में एआई द्वारा किए गए इनफॉर्म्स के बारे में प्रतिक्रिया देने की अनुमति दें।

तीन राष्ट्रीय क्रेडिट ब्यूरो क्रेडिट रिपोर्ट बनाने के लिए व्यक्तियों पर जानकारी इकट्ठा करते हैं जो उधारकर्ता संभावित उधारकर्ता के जोखिम को निर्धारित करने के लिए उपयोग करते हैं। व्यक्ति एकत्र किए जा रहे डेटा का विकल्प नहीं चुन सकते हैं और गलत डेटा या उनके बारे में अनुमानों को ठीक करने के लिए महत्वपूर्ण लंबाई के माध्यम से जाना चाहिए।

किसी व्यक्ति के बारे में तैयार किए गए संदर्भ (जैसे, ऋण डिफ़ॉल्ट के लिए उच्च जोखिम) व्यक्ति के ज्ञान या नियंत्रण के बिना हानिकारक परिणाम हो सकते हैं (जैसे, ऋण प्राप्त करने में असमर्थता)। दुर्भाग्य से, एआई और "बिग डेटा" के हाथों सबसे अधिक पीड़ित वे पहले से ही हाशिए पर हैं, गरीब, ध्वनि रहित समुदाय (जैसे, इंटरनेट एक्सेस के बिना वे जो अपनी क्रेडिट रिपोर्ट या सुधार के लिए फ़ाइल अनुरोध नहीं देख सकते हैं)।

यूरोपीय संघ के कानून के लिए एआई निर्णयों की आवश्यकता होती है गंभीर परिणामों के साथ एक मानव द्वारा इसे ओवरराइड करने के विकल्प की जाँच की जाती है; हालाँकि, अलगाव में एक भी डेटा बिंदु दूसरों के बारे में किए गए निर्णयों को समझने के बिना अर्थहीन है (जैसे, अन्य सभी कारकों के समान होने के बावजूद काले बनाम गोरे ग्राहकों के लिए ऋण अनुमोदन की सिफारिश अलग है?)। एआई सिफारिशों या संदर्भों में भविष्यवाणियों को समझना महत्वपूर्ण है।

Inferences के बारे में पारदर्शी होना और व्यक्तियों को प्रतिक्रिया देने की अनुमति देना न केवल आपको अपने मॉडल की सटीकता में सुधार करने में सक्षम बनाता है, बल्कि यह आपको भेदभाव के लिए सही करने की अनुमति देता है। यह प्रतियोगियों पर एक फायदा हो सकता है जो व्यवहार्य ग्राहकों को गलत तरीके से खारिज करता है। उदाहरण के लिए, एक बैंक जो बहुत अधिक जोखिम के रूप में ऋण आवेदकों की एक बड़ी संख्या को खारिज कर देता है वह एक वैकल्पिक पेशकश के रूप में सूक्ष्म ऋणों की पहचान कर सकता है जो न केवल समुदाय का समर्थन करता है, बल्कि एक वफादार ग्राहक-आधार का परिणाम भी देता है जिसे बैंक के प्रतियोगियों ने अनदेखा कर दिया है। इससे ग्राहक अपनी वित्तीय स्थिति में सुधार कर सकते हैं और बैंक के प्रसाद का अधिक लाभ उठा सकते हैं, जिसके परिणामस्वरूप एक पुण्य चक्र होता है।

यह एक गाँव को एक अंतर बनाता है

एक नैतिक संस्कृति की खेती करने से लेकर कंपनी के मूल्यों के बारे में पारदर्शी होने और अपने ग्राहकों को सशक्त बनाने के लिए, एक कंपनी के कई कार्य हैं और उसके कर्मचारियों को AI उत्पादों के निर्माण के लिए एक नैतिक आधार तैयार करना चाहिए। अपने AI- आधारित उत्पादों में अपवर्जन को हटाने के तरीकों में खुदाई करने के लिए, भाग II देखें।

तुम क्या सोचते हो यह सुनकर मुझे बहुत अच्छा लगेगा! आपकी कंपनी और आप व्यक्तिगत रूप से अपने काम में एक नैतिक आधार बनाने के लिए क्या करते हैं?

जस्टिन Tauber, Liz Balsam, मौली महार, और Raymon Sutedjo-आपकी प्रतिक्रिया के लिए धन्यवाद!

@SalesforceUX पर हमें का पालन करें।

हमारे साथ काम करना चाहते हैं? Uxcareers@salesforce.com से संपर्क करें