भारत में आर्टिफिशियल इंटेलिजेंस (AI) और जातिवाद
बाबू डीसी वर्मा
“क्या AI सामाजिक न्याय का समर्थन करेगा या यह हमेशा के लिए सामाजिक न्याय को दफनाने के लिए तैयार है?”
(मूल अंग्रेजी से हिन्दी अनुवाद: एस आर दारापुरी (आईपीएस से. नि.)
भारत की वर्तमान व्यवस्था में पहले से ही मौजूद ऐतिहासिक पूर्वाग्रहों को अगर जिम्मेदारी से संबोधित नहीं किया गया तो AI में भी जड़ जमा ली जाएगी और यहां तक कि उन्हें और भी बढ़ाया जाएगा। आधुनिक AI प्रकृति में बहुत हद तक सांख्यिकीय है, यह सीखने और निर्णय लेने के लिए वास्तविक जीवन के आंकड़ों पर निर्भर करता है और हम सभी जानते हैं कि वास्तविक जीवन में ऐतिहासिक असमानताओं, सामाजिक संरचनाओं और लोगों के कार्य करने के तरीके से पूर्वाग्रह होते हैं। इसलिए, AI जानबूझकर या अनजाने में उन्हें विरासत में ले सकता है और मजबूत कर सकता है। भारत सदियों से एक अत्यधिक विविधता वाला देश रहा है, लेकिन जाति व्यवस्था भेदभाव के सबसे गहरे और हानिकारक रूपों में से एक है, जो दुनिया से छिपा नहीं है। इसका प्रभाव इतना गहरा है कि कई व्यक्तियों ने इससे बचने के लिए अपना धर्म भी बदल लिया है, अक्सर बिना सफलता के।
आधुनिक समाज में उत्पीड़ित समुदाय सामाजिक असमानताओं में निहित प्रणालीगत आर्थिक असमानताओं के कारण हाशिए पर बने हुए हैं। “धन धन को आकर्षित करता है” का सिद्धांत एक फीडबैक लूप बनाता है जो इन समुदायों के उत्थान में और बाधा डालता है। इसी तरह, एआई के संदर्भ में, “कचरा अंदर, कचरा बाहर” वाक्यांश इस बात पर प्रकाश डालता है कि पक्षपातपूर्ण डेटा पक्षपातपूर्ण निर्णयों की ओर कैसे ले जाता है। जब इन पक्षपातपूर्ण आउटपुट का उपयोग भविष्य के निर्णयों के लिए इनपुट के रूप में किया जाता है, तो वे एक नकारात्मक फीडबैक लूप को बनाए रखते हैं, जो प्रणालीगत भेदभाव को मजबूत करता है।
अगर हम संक्षेप में पूर्वाग्रह के बारे में बात करें, तो इसे किसी व्यक्ति, चीज़ या विचार के पक्ष में या उसके खिलाफ पूर्वाग्रह के रूप में परिभाषित किया जाता है। वह वरीयता समझ और परिणामों को इस तरह से प्रभावित करती है जो तटस्थता या निष्पक्षता को रोकती है। जब जाति की बात आती है, तो भारत में पूर्वाग्रह स्पष्ट और निहित दोनों रूपों में मौजूद होते हैं। ब्लू-कॉलर नौकरियों में, वे स्पष्ट होते हैं, जबकि व्हाइट-कॉलर नौकरियों में, वे अधिक छिपे हुए होते हैं लेकिन काफी ध्यान देने योग्य होते हैं। जबकि छिपे हुए जातिगत पूर्वाग्रह वाले व्यक्ति खुले तौर पर भेदभाव नहीं दिखा सकते हैं, वे अभी भी जाति असमानता की प्रणाली का समर्थन कर सकते हैं, खासकर जब बहुसंख्यक समूह का हिस्सा हों और जब महत्वपूर्ण मामलों की बात आती है। यह निष्क्रिय मिलीभगत सामाजिक और कार्य वातावरण में जाति-आधारित अन्याय को जारी रखने में मदद करती है। अपराधियों को खोजने के लिए निगरानी में चेहरे की पहचान जैसी तकनीक, बैंक खातों और लेन-देन में धोखाधड़ी का पता लगाने के लिए AI सिस्टम और भर्ती प्रक्रियाओं में AI-आधारित उपकरण सभी के साथ उचित व्यवहार नहीं कर सकते हैं।
भारत में भी धार्मिक ध्रुवीकरण हो रहा है। हमारी निगाहों को जगाने के लिए डिज़ाइन किए गए सोशल मीडिया के पीछे के एल्गोरिदम समुदायों के भीतर विभाजन को गहरा कर रहे हैं। ये ताकतें समाज के ताने-बाने को तोड़ सकती हैं। यह कोई रहस्य नहीं है कि तकनीकी प्रगति का इस्तेमाल अक्सर सत्ता में बैठे लोगों द्वारा अपनी पकड़ मजबूत करने के लिए किया जाता है। उदाहरण के लिए, प्रिंटिंग प्रेस ने सूचना और सेंसरशिप के प्रवाह को नियंत्रित करने में मदद की, रेडियो का इस्तेमाल प्रचार के लिए किया गया और टेलीविज़न सूचना को नियंत्रित करने और संस्कृति और लोगों द्वारा उपभोग की जाने वाली चीज़ों को आकार देने का एक तरीका बन गया। इंटरनेट ने डिजिटल गेटकीपिंग, निगरानी और तकनीक तक पहुँच रखने वालों और बिना पहुँच वाले लोगों के बीच बढ़ती खाई को पेश किया। सोशल मीडिया अब गलत सूचना, हेरफेर और पूर्वाग्रह फैलाने में भूमिका निभाता है, जबकि निगरानी और सेंसरशिप की अनुमति देता है। इन तकनीकों को, जबकि शुरू में उनकी लोकतांत्रिक क्षमता के लिए सराहा गया था, अक्सर प्रमुख समूहों के हितों की सेवा के लिए सह-चुना गया है।
और AI, AI पहले की तकनीकों की तुलना में बहुत अधिक शक्तिशाली है, स्वाभाविक रूप से अच्छा या बुरा नहीं है – यह एक ऐसा उपकरण है जो इसके रचनाकारों और उपयोगकर्ताओं के मूल्यों और इरादों को दर्शाता है। कंप्यूटर वैज्ञानिक स्टुअर्ट रसेल ने एक बार अपने भाषण में उल्लेख किया था- “दुनिया के बारे में एक दुखद तथ्य यह है कि बहुत से लोग अपने हितों के अनुरूप अन्य लोगों की प्राथमिकताओं को आकार देने के व्यवसाय में हैं, इसलिए लोगों का एक वर्ग दूसरे पर अत्याचार करता है, लेकिन उत्पीड़ितों को यह विश्वास करने के लिए प्रशिक्षित करता है कि उन पर अत्याचार किया जाना चाहिए। तो क्या AI प्रणाली को वरीयता, उत्पीड़ितों की आत्म-उत्पीड़न प्राथमिकताओं को शाब्दिक रूप से लेना चाहिए और उन लोगों के और अधिक उत्पीड़न में योगदान देना चाहिए क्योंकि उन्हें अपने उत्पीड़न को स्वीकार करने के लिए प्रशिक्षित किया गया है।” स्टीफन हॉकिंग ने एक बार AI पर टिप्पणी की थी- “जबकि AI का अल्पकालिक प्रभाव इस बात पर निर्भर करता है कि इसे कौन नियंत्रित करता है, दीर्घकालिक प्रभाव इस बात पर निर्भर करता है कि क्या इसे बिल्कुल भी नियंत्रित किया जा सकता है।”
क्या हम उन लोगों पर भरोसा कर सकते हैं जो दावा करते हैं कि वे अपने पूर्वजों द्वारा उत्पीड़ितों पर किए गए अन्याय के लिए जिम्मेदार नहीं हैं? क्या वे AI को डिजाइन, विकसित और उपयोग करते समय न्याय सुनिश्चित करने के लिए अतिरिक्त प्रयास करेंगे? शायद हाँ, शायद नहीं। लेकिन क्या हम वह जोखिम उठा सकते हैं? बिल्कुल नहीं। एकमात्र विकल्प नैतिक विकास, समावेशी शासन और उस जोखिम को कम करने के लिए सक्रिय निगरानी है और AI की क्षमता को सामाजिक न्याय का समर्थन करने की अनुमति देता है। हालाँकि, अगर इसे उन लोगों द्वारा अनियंत्रित या नियंत्रित किया जाता है जो निष्पक्षता से अधिक लाभ या शक्ति की परवाह करते हैं, तो AI हमेशा के लिए सामाजिक न्याय को दफन कर सकता है। निष्पक्ष और समावेशी शासन सुनिश्चित करने के लिए, AI के लिए निर्णय लेने वाली संरचनाओं में विविध पृष्ठभूमि के लोगों को शामिल करना चाहिए। प्रतिनिधित्व में सभी धर्मों, अनुसूचित जातियों (एससी), अनुसूचित जनजातियों (एसटी), अन्य पिछड़ा वर्ग (ओबीसी), और महिलाओं और प्रमुख जातियों को शामिल किया जाना चाहिए। यह विविधता पक्षपात को रोकने और समाज के सभी वर्गों के लिए न्याय को बनाए रखने के लिए महत्वपूर्ण है।
अंत में, एआई के युग में सामाजिक न्याय का भविष्य नीति निर्माताओं, तकनीकी कार्यकर्ताओं और समाज के सामूहिक प्रयासों पर टिका है, जो निष्पक्षता और समानता की खोज में एकजुट हैं।
(लेखक बाबू डीसी वर्मा, आईआईटी दिल्ली से स्नातक हैं, एआई के बारे में उत्साही हैं लेकिन जिम्मेदारी से)