Pixelated Images, Cornell Tech के Facial Recognition A.I के लिए कोई मेल नहीं हैं।

$config[ads_kvadrat] not found

ªà¥à¤°à¥‡à¤®à¤®à¤¾ धोका खाएका हरेक जोडी लाई रुवाउ

ªà¥à¤°à¥‡à¤®à¤®à¤¾ धोका खाएका हरेक जोडी लाई रुवाउ
Anonim

न्यूयॉर्क शहर में कॉर्नेल टेक के तीन शोधकर्ताओं ने पता लगाया है कि धुंधली और पिक्सेलयुक्त छवियां कृत्रिम बुद्धिमत्ता के लिए कोई मुकाबला नहीं हैं। यद्यपि अस्पष्ट छवियां मानव आंखों के लिए समझ से बाहर हैं, और इसलिए उनकी संवेदनशील सामग्री की रक्षा करने के लिए लगता है, तंत्रिका नेटवर्क अक्सर बता सकते हैं कि मूल छवि में कौन है।

दूसरे शब्दों में, मनुष्य अब लिटमस टेस्ट नहीं है। हम अब केवल यह नहीं पूछ सकते हैं कि क्या कुछ सभी मानव मस्तिष्क को हरा देता है। A.I.s - और भी सरल A.I.s - मनुष्यों को बेहतर बना सकते हैं, इसलिए उन्हें हराना भी समीकरण का हिस्सा होना चाहिए।

कॉर्नेल टेक शोधकर्ताओं के अध्ययन ने गोपनीयता-संरक्षण एल्गोरिदम के परीक्षण पर ध्यान केंद्रित किया, जो कुछ जानकारी या चित्रों के कुछ हिस्सों को धुंधला या पिक्सेल करता है। पहले, हमने गोपनीयता-संरक्षण वाले सॉफ़्टवेयर या एल्गोरिदम पर अंतर्निहित रूप से भरोसा किया, यह अनुमान लगाते हुए कि उन्होंने जो जानकारी अस्पष्ट की थी वह सुरक्षित थी क्योंकि नहीं मानव बता सकता है कि डिजिटल घूंघट के पीछे कौन था। अध्ययन से पता चलता है कि वह युग खत्म हो गया है, और संबंधित गुमनामी विधियां लंबे समय तक नहीं रहीं। तंत्रिका नेटवर्क, इन गोपनीयता उपायों से मिले, हैरान हैं।

रिचर्ड मैकफर्सन एक पीएच.डी. टेक्सास विश्वविद्यालय, ऑस्टिन में कंप्यूटर विज्ञान में उम्मीदवार, जिन्होंने कॉर्नेल टेक के लिए अपने प्रोफेसर विटाली शमतिकोव का अनुसरण किया। रेजा शोखरी के साथ मिलकर, उन्होंने यह प्रदर्शित किया कि सरल तंत्रिका नेटवर्क आम छवि अवरोधन तकनीकों का खुलासा कर सकते हैं। तकनीक अपेक्षाकृत अपरिष्कृत है, जो खोज को और अधिक चिंताजनक बना देती है: ये सामान्य, सुलभ विधियां हैं, और वे उद्योग के मानदंडों को मानने में सक्षम थे।

तंत्रिका नेटवर्क नोड्स या कृत्रिम न्यूरॉन्स की बड़ी, स्तरित संरचनाएं हैं, जो मस्तिष्क की मूल संरचना की नकल करते हैं। वे कहते हैं कि "न्यूरॉन्स कैसे काम करते हैं, इसकी एक सरल समझ के आधार पर," मैकफर्सन बताता है श्लोक में । "इसे कुछ इनपुट दें, और न्यूरॉन या तो आग या आग नहीं करता है।"

वे शब्द की किसी न किसी परिभाषा से "सीखने" में भी सक्षम हैं। यदि आप एक मानव ("पूरी तरह से अशिक्षित) मानव कुछ" लाल "दिखाते हैं, और उन्हें एक बाल्टी से सभी" लाल "चीजों को बाहर निकालने के लिए कहते हैं, तो वे पहले संघर्ष करते हैं लेकिन समय के साथ सुधार करते हैं। तो तंत्रिका नेटवर्क के साथ भी। मशीन लर्निंग का मतलब केवल कंप्यूटर को "लाल" चीजों को चुनना है, उदाहरण के लिए, एक प्रकार की आभासी बाल्टी से।

इस प्रकार मैकफ़र्सन और कंपनी ने अपने तंत्रिका नेटवर्क को प्रशिक्षित किया। "हमारे सिस्टम में, हम एक मॉडल बनाते हैं - तंत्रिका नेटवर्क की एक वास्तुकला, इन कृत्रिम न्यूरॉन्स का एक संरचित सेट - और फिर हम उन्हें बड़ी मात्रा में ओफ़्फ़ुसेटेड चित्र देते हैं," वे कहते हैं। "उदाहरण के लिए, हम उन्हें कैरल की सौ अलग-अलग तस्वीरें दे सकते हैं जिन्हें पिक्सलेट किया गया है, फिर बॉब की सौ अलग-अलग तस्वीरें जिन्हें पिक्सेलेट किया गया है।"

फिर शोधकर्ता इन पिक्सेलित चित्रों को लेबल करते हैं, और ऐसा करने वाले मॉडल को प्रत्येक छवि में बताते हैं। इस डेटा सेट को संसाधित करने के बाद, नेटवर्क कार्यात्मक रूप से जानता है कि Pixelated Bob और Pixelated Carol कैसा दिखता है। "हम तब लेबल के बिना इसे बॉब या कैरल की एक अलग पिक्सेलेटेड तस्वीर दे सकते हैं," मैकफर्सन बताते हैं, "और यह एक अनुमान लगा सकता है और कह सकता है, 'मुझे लगता है कि यह 95 प्रतिशत सटीकता के साथ बॉब है।"

मॉडल बाधित छवि को फिर से संगठित नहीं करता है, लेकिन यह तथ्य कि यह सबसे आम और पूर्व में सबसे विश्वसनीय गुमनामी विधियों को हराने में सक्षम है और स्वयं में है। मैकफर्सन कहते हैं, "वे यह पता लगाने में सक्षम हैं कि क्या किया जा रहा है, लेकिन वे नहीं जानते कि यह मूल रूप से कैसा दिखता है,"।

लेकिन तंत्रिका नेटवर्क अभी भी मनुष्यों की तुलना में बेहतर करने में सक्षम हैं। जब एक उद्योग-मानक तकनीक का उपयोग करके छवियों को सबसे अधिक बाधित किया गया था, तब भी प्रणाली 50 प्रतिशत से अधिक सटीक थी। लगभग कम अनुमानित छवियों के लिए, सिस्टम लगभग 70 प्रतिशत सटीकता पर उल्लेखनीय साबित हुआ। पूरी तरह से विफल रहने वाले चेहरों के लिए YouTube का मानदंड विफल रहा; यहां तक ​​कि सबसे धुंधली छवियों को तंत्रिका नेटवर्क द्वारा ट्रिम किया गया था, जो 96 प्रतिशत सटीक साबित हुआ।

अन्य पहले से अनारक्षित डेटा, पाठ, और छवि गुमनामी तकनीक इसी तरह अविश्वसनीय हैं। "गर्मियों में एक काम था जो पिक्सेलेशन और धुंधलापन का उपयोग करते हुए गुमनाम पाठ को देखता था, और दिखाया कि वे भी टूटने में सक्षम थे," मैकफर्सन कहते हैं। और अन्य एक बार-भरोसेमंद तरीके दरवाजे के बाहर भी उनके रास्ते पर हो सकते हैं। हालाँकि, वह वॉयस ऑबफसिकेशन तकनीकों के इन्स-एंड-आउट्स को नहीं जानता है, जैसे कि अनाम टीवी साक्षात्कारों के लिए उपयोग किया जाता है, वह "आश्चर्यचकित नहीं होगा" यदि तंत्रिका नेटवर्क गुमनामी को तोड़ सकते हैं।

मैकफर्सन की खोज, तब साबित करती है कि "गोपनीयता-संरक्षण के तरीके जो हमारे पास अतीत में थे, वास्तव में सूंघने तक नहीं हैं, खासकर आधुनिक मशीन सीखने की तकनीक के साथ।" दूसरे शब्दों में, हम खुद को अप्रासंगिक, प्रशिक्षण मशीनों में कोड कर रहे हैं। हमें सभी क्षेत्रों में आगे बढ़ाएं।

शोधकर्ताओं ने लिखा, "जैसे-जैसे मशीन सीखने की शक्ति बढ़ती है, वैसे-वैसे यह ट्रेडऑफ विपरीत परिस्थितियों में बदल जाएगा।"

$config[ads_kvadrat] not found