Apple iPhone X चाइनीज फेस, रिफंड गिवेन के अलावा नहीं बता सकता

$config[ads_kvadrat] not found

Apple Event — October 13

Apple Event — October 13
Anonim

पिछले हफ्ते, चीन के पूर्व में एक प्रमुख शहर, नानजिंग में, यान नाम की एक महिला को दो बार Apple से उसके दोषपूर्ण iPhoneX के लिए वापसी की पेशकश की गई थी, जिसे उसके सहयोगी ने चेहरे की पहचान तकनीक का उपयोग करके अनलॉक किया था। दोनों महिलाएं जातीय रूप से चीनी हैं।

यान ने स्थानीय समाचारों को बताया कि ऐसा पहली बार हुआ था, उसने आईफोन हॉटलाइन को कॉल किया, लेकिन वे उसे नहीं मानते थे। यह तब तक नहीं था जब तक कि वह और उनके सहयोगी एक स्थानीय ऐप्पल स्टोर में नहीं गए और उन्होंने स्टोर के कर्मचारियों को दिखाया कि उन्होंने उसे धन वापसी की पेशकश की और उन्होंने एक नया फोन खरीदा, यह सोचकर कि शायद एक दोषपूर्ण कैमरा को दोष देना था।

लेकिन दूसरे फोन में एक ही समस्या थी, यह सुझाव देते हुए कि यह दोषपूर्ण कैमरा नहीं था, जैसा कि स्टोर के श्रमिकों ने सुझाव दिया था, लेकिन सॉफ्टवेयर के साथ एक समस्या।

यह ऐसा पहला मामला नहीं होगा जिसमें चेहरे की पहचान करने वाले सॉफ्टवेयर और इसके पीछे एआई को गैर-गोरे चेहरे को पहचानने में परेशानी हुई हो।

2015 में, Google फ़ोटो ने गलती से दो अफ्रीकी-अमेरिकियों की एक तस्वीर को गोरिल्ला के रूप में टैग किया, जबकि 2009 में, एचपी कंप्यूटर http://www.youtube.com/watch?v=t4DT3tQqgRM) को चेहरे को पहचानने और ट्रैक करने में परेशानी हुई थी - लेकिन गोरे चेहरे की कोई समस्या नहीं। उसी वर्ष, Nikon के कैमरा सॉफ्टवेयर को एक एशियाई चेहरे को झपकी के रूप में गुमराह करते हुए पकड़ा गया था।

Google फ़ोटो, आपने सबको गड़बड़ कर दिया। मेरा दोस्त गोरिल्ला नहीं है। pic.twitter.com/SMkMCsNVX4

- जैकी (@jackyalcine) 29 जून, 2015

"यह मूल रूप से एक डेटा समस्या है," केट क्रॉफोर्ड ने लिखा, माइक्रोसॉफ्ट के एक प्रमुख शोधकर्ता और सोसाइटी और ओबामा व्हाइट हाउस के संगोष्ठी के सह-अध्यक्ष और ए.आई. "एल्गोरिदम कुछ छवियों को खिलाकर सीखते हैं, जिन्हें अक्सर इंजीनियरों द्वारा चुना जाता है, और सिस्टम उन छवियों के आधार पर दुनिया का एक मॉडल बनाता है। यदि एक प्रणाली को उन लोगों की तस्वीरों पर प्रशिक्षित किया जाता है जो अत्यधिक सफेद होते हैं, तो यह एक कठिन समय होगा जो कि गैर-चेहरे को पहचानता है।"

ब्रुकलिन स्थित प्रोग्रामर जैकी अलकाइन, जिनकी फोटो को Google ने गलत बताया था, सहमत हो गए। अपने अनुभव के बारे में उन्होंने कहा, "इससे अश्वेत लोगों के सटीक और अधिक संपूर्ण वर्गीकरण से बचा जा सकता था।"

लेकिन नस्लवाद को एआई में कोडित किया जाता है, भले ही यह अनजाने में हो, इसका मतलब सिर्फ चेहरे की पहचान से परे है।

2016 में एक ProPublica जांच में पाया गया कि काले अपराधियों के होने की संभावना दोगुनी थी भूल से श्वेत अपराधियों की तुलना में अपराधों को फिर से उजागर करने की संभावना के रूप में चिह्नित किया गया, जबकि "भविष्य कहनेवाला पुलिसिंग" की बढ़ती प्रवृत्ति अपराध और प्रत्यक्ष पुलिस संसाधनों के अनुसार पूर्वानुमान लगाने के लिए एल्गोरिदम का उपयोग करती है।

क्रॉफर्ड कहते हैं, "फिर भी अल्पसंख्यक समुदायों को ऐतिहासिक रूप से अति-पॉलिश किया गया है, इस संभावना के कारण कि" यह सॉफ्टवेयर पहले से ही दुष्चक्र का खतरा बना हुआ है।

वापस नानजिंग, चीन में, यान ने अपने दूसरे iPhoneX पर दूसरा धन वापसी प्राप्त किया। स्थानीय समाचार रिपोर्टों से, यह स्पष्ट नहीं है कि उसने फिर तीसरा खरीदा।

इस समय क्या दांव पर लगा था, हो सकता है कि वह सिर्फ एक ही उपभोक्ता हो। लेकिन यान का मामला प्रौद्योगिकी उद्योग की विविधता और समावेशिता को ध्यान में रखते हुए डिजाइन करने की निरंतर आवश्यकता का एक उदाहरण था।

$config[ads_kvadrat] not found