ह्यूमन राइट्स वॉच: चीन अल्पसंख्यक समूहों को लक्षित करने के लिए बड़े डेटा का उपयोग करता है

$config[ads_kvadrat] not found

D लहंगा उठावल पड़ी महंगा Lahunga Uthaw 1

D लहंगा उठावल पड़ी महंगा Lahunga Uthaw 1
Anonim

चीनी सरकार ने सोमवार को जारी एक ह्यूमन राइट्स वॉच के अनुसार, झिंजियांग प्रांत में जातीय अल्पसंख्यकों को लक्षित करने के लिए भविष्य कहनेवाला पुलिसिंग एल्गोरिदम का उपयोग कर रहा है।

उत्तर पश्चिमी चीन में प्रांत 11 मिलियन उइगर का घर है, जो एक तुर्की मुस्लिम जातीय समूह है जो हाल के वर्षों में चीन सरकार द्वारा भेदभाव किया गया है।

अब, अधिकारी कथित तौर पर राजनीतिक असंतोष के संदेह में किसी को भी लक्षित करने के लिए बड़े डेटा का उपयोग कर रहे हैं। धक्का "स्ट्राइक हार्ड" अभियान का हिस्सा है, जिसका उद्देश्य चीन में संभावित आतंकवादी गतिविधि को शांत करना है। अभ्यास में, इसने उइगर के पुलिसिंग पुलिसिंग का नेतृत्व किया है, ह्यूमन राइट्स वॉच का कहना है।

प्रेडिक्टिव पुलिसिंग सिस्टम, जिसे IJOP - एकीकृत संयुक्त संचालन प्लेटफॉर्म के रूप में जाना जाता है - को विभिन्न निगरानी उपकरणों की एक किस्म से डेटा खिलाया जाता है। इनमें सुरक्षा चौकियों से प्राप्त सीसीटीवी कैमरे, लाइसेंस प्लेट और नागरिक आईडी कार्ड नंबर और स्वास्थ्य, बैंकिंग और कानूनी रिकॉर्ड सहित व्यक्तिगत जानकारी की एक टुकड़ी शामिल है।

स्वचालित निगरानी के अलावा, सरकारी अधिकारी जनसंख्या पर डेटा एकत्र करने के लिए इन-होम यात्राओं का आयोजन करते हैं। एक चीनी व्यवसायी ने एक फॉर्म साझा किया जिसे उन्होंने IJOP के ह्यूमन राइट्स वॉच के रिकॉर्ड के लिए भर दिया - अन्य बातों के अलावा, प्रश्नकर्ता ने पूछा कि क्या व्यवसायी उइगर था, वह कितनी बार प्रार्थना करता है, और वह धार्मिक सेवाओं के लिए कहां जाता है।

ये सभी डेटा इनपुट IJOP द्वारा संभावित खतरों के रूप में लोगों को फ़्लैग करने के लिए उपयोग किए जाते हैं। जब किसी को झंडी दिखाई जाती है, तो पुलिस आगे की जांच खोलती है और संदिग्ध समझे जाने पर उन्हें हिरासत में ले लेती है।

ह्यूमन राइट्स वॉच की वरिष्ठ चीन शोधकर्ता माया वांग ने कहा, "पहली बार, हम यह प्रदर्शित करने में सक्षम हैं कि चीनी सरकार बड़े डेटा का इस्तेमाल करती है और भविष्य में पुलिसिंग न केवल गोपनीयता के अधिकारों का हनन करती है, बल्कि अधिकारियों को मनमाने ढंग से हिरासत में लेने में भी सक्षम बनाती है।"

रिपोर्ट के अनुसार, झंडे वाले कुछ लोगों को राजनीतिक शिक्षा केंद्रों में भेज दिया गया है, जहां उन्हें बिना किसी मुकदमे के अनिश्चित काल के लिए हिरासत में लिया गया है।

रिपोर्ट में कहा गया है, "अप्रैल 2016 के बाद से, ह्यूमन राइट्स वॉच का अनुमान है, झिंजियांग के अधिकारियों ने राजनीतिक शिक्षा केंद्रों को हजारों उइगर और अन्य जातीय अल्पसंख्यकों को भेजा है," रिपोर्ट में कहा गया है।IJOP भेदभावपूर्ण गिरफ्तारी के उद्देश्य, एल्गोरिथम विश्लेषण के लिबास को लागू करके इन प्रतिबंधों को विश्वसनीयता दे रहा है।

मामलों को बदतर बनाने के लिए, IJOP के आंतरिक कामकाज को गोपनीयता में ढाल दिया जाता है।

वांग ने कहा, "झिंजियांग के लोग अपने दैनिक जीवन की बढ़ती गहन जांच का विरोध या चुनौती नहीं दे सकते, क्योंकि ज्यादातर लोग इस 'ब्लैक बॉक्स' कार्यक्रम के बारे में नहीं जानते हैं या यह कैसे काम करता है," वांग ने कहा।

यह वही समस्या है जो सबसे परिष्कृत मशीन लर्निंग सिस्टम को नुकसान पहुँचाती है: निर्णय प्रक्रिया जो वे नियोजित करते हैं वह एल्गोरिथम के रचनाकारों के लिए भी अपारदर्शी है।

IJOP के चीन के उपयोग पर ध्यान देने योग्य है, क्योंकि प्रौद्योगिकी में सुधार के साथ भविष्य कहनेवाला पुलिस का प्रसार होने की संभावना है। जैसा कि जॉन क्रिश्चियन ने बताया रूपरेखा, संयुक्त राज्य अमेरिका में कुछ स्थानों पर पहले से ही पुलिसिंग प्रणाली का उपयोग किया जाता है। लॉस एंजिल्स पुलिस डिप्रेशन सॉफ्टवेयर का उपयोग करता है जो अनुमान लगाता है कि अपराध कब और कहाँ होने की संभावना है इसलिए अधिकारी उन्हें बंद कर सकते हैं।

आपराधिक न्याय प्रणाली के दूसरी ओर, अदालत कभी-कभी एल्गोरिदम का उपयोग करते हैं जो न्यायाधीशों को अधिक सूचित निर्णय लेने में मदद करने के लिए संभावित पैरोल "जोखिम मूल्यांकन" स्कोर देते हैं। दुर्भाग्य से, ये कथित रूप से निष्पक्ष एल्गोरिदम वास्तव में नस्ल के आधार पर भेदभाव करते हैं।

मशीन के सीखने के सार्वजनिक क्षेत्र में प्रवेश करने के लिए चीन की भविष्यवाणिय पुलिसिंग में जिम्मेदार एल्गोरिथ्म कार्यान्वयन के महत्व को रेखांकित करता है। शायद तकनीक-प्रेमी सरकारों के लिए एक नया मंत्र अपनाने का समय आ गया है: कभी-कभी कृत्रिम बुद्धिमत्ता इससे अधिक समस्याएँ हल करती है।

$config[ads_kvadrat] not found