स्मार्ट स्पीकर ध्वनि से हैक किए जा सकते हैं, शोधकर्ताओं ने इसे रोकने के लिए कहा

$config[ads_kvadrat] not found

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤
Anonim

क्या होगा अगर हमने आपको बताया कि एक हैकर आपके अमेज़न इको को आपके बिना भी एक कमांड दे सकता है - या यहां तक ​​कि किसी भी हैकिंग को करने के लिए जैसा कि हम आम तौर पर सोचते हैं?

Moustafa Alzantot, एक कंप्यूटर विज्ञान Ph.D. कैलिफोर्निया विश्वविद्यालय में उम्मीदवार, लॉस एंजिल्स का कहना है कि एक दुर्भावनापूर्ण अभिनेता के लिए एक विशेष ध्वनि या संकेत भेजना सैद्धांतिक रूप से संभव है जो आमतौर पर मनुष्यों द्वारा पूरी तरह से ध्यान नहीं दिया जाता है, लेकिन एआई के गहन सीखने के एल्गोरिदम को लड़खड़ाने का कारण बनता है।

"एक हमले का एक उदाहरण" आपके घरेलू उपकरण को नियंत्रित करेगा, जो आपको पता है कि क्या हो रहा है, के बिना, "अल्जंटोट बताता है श्लोक में । “यदि आप रेडियो पर कुछ संगीत बजा रहे हैं और आपके कमरे में एक इको बैठा है। यदि कोई दुर्भावनापूर्ण अभिनेता एक गढ़े हुए ऑडियो या संगीत सिग्नल को प्रसारित करने में सक्षम है, जैसे कि इको एक कमांड के रूप में व्याख्या करेगा, तो यह हमलावर को कहने, एक दरवाजा खोलने या कुछ खरीदने की अनुमति देगा।"

यह एक प्रतिकूल उदाहरण के रूप में जाना जाने वाला हमला है, और यह Alzantot और उनकी टीम के बाकी लोगों को रोकने का लक्ष्य है, जैसा कि हाल ही में NIPS 2017 मशीन धोखा कार्यशाला में प्रस्तुत उनके पेपर में वर्णित है।

A.I. मानव बुद्धि से अलग नहीं है जिसने इसे पहली बार बनाया है: इसके दोष हैं। कंप्यूटर विज्ञान शोधकर्ताओं ने इन प्रणालियों को पूरी तरह से मूर्ख बनाने के तरीकों को एक तस्वीर में थोड़ा बदलकर या ऑडियो फाइलों में बेहोश शोर जोड़कर पता लगाया है। ये मिनट ट्विंकल मनुष्यों द्वारा पूरी तरह से अवांछनीय हैं, लेकिन पूरी तरह से बदल जाते हैं जो ए.आई. सुनता है या देखता है।

यूसीएलए के एक कंप्यूटर वैज्ञानिक मणि श्रीवास्तव बताते हैं, "थिएस एल्गोरिदम को वर्गीकृत करने के प्रयास के लिए डिज़ाइन किया गया है, ताकि वे इस पर कार्य कर सकें।" श्लोक में । "हम इस तरीके से इनपुट में हेरफेर करके प्रक्रिया को दूर करने की कोशिश करते हैं, जो कि एक मानव पास में 'नहीं' सुनता है, लेकिन मशीन 'हाँ' सुनती है। इसलिए आप एल्गोरिथ्म को कमांड की तुलना में अलग-अलग तरीके से व्याख्या करने के लिए मजबूर कर सकते हैं।"

सबसे आम प्रतिकूल उदाहरण छवि वर्गीकरण एल्गोरिदम से संबंधित हैं, या ए.आई. कुछ अलग तरह से सोचें। अल्जंटोट और श्रीवास्तव के शोध में बताया गया है कि भाषण मान्यता एल्गोरिदम भी इस प्रकार के हमलों के लिए अतिसंवेदनशील होते हैं।

कागज में, समूह ने Google की ओपन-सोर्स लाइब्रेरी, टेन्सरफ्लो में पाया जाने वाला एक मानक भाषण वर्गीकरण प्रणाली का उपयोग किया। उनकी प्रणाली को एक-शब्द कमांड को वर्गीकृत करने का काम सौंपा गया था, इसलिए यह एक ऑडियो फ़ाइल को सुनेगा और उस शब्द से इसे लेबल करने की कोशिश करेगा जो फ़ाइल में कहा गया था।

उन्होंने तब अन्य एल्गोरिथ्म को कोड करने की कोशिश की और प्रतिकूल उदाहरणों का उपयोग करके TensorFlow प्रणाली को धोखा दिया। यह प्रणाली भाषण वर्गीकरण ए.आई. ब्लैक बॉक्स हमले के रूप में जाना जाता है, का उपयोग करते हुए 87 प्रतिशत समय, जिसमें एल्गोरिथ्म को यह भी पता नहीं है कि यह क्या हमला कर रहा है इसके डिजाइन के बारे में कुछ भी नहीं है।

श्रीवास्तव बताते हैं, "इस तरह के हमलों को रोकने के दो तरीके हैं।" "एक है जब, मैं विरोधी के रूप में प्राप्त प्रणाली के बारे में सब कुछ जानता हूं, इसलिए मैं अब उस ज्ञान का फायदा उठाने की रणनीति बना सकता हूं, यह एक सफेद बॉक्स हमला है। हमारे एल्गोरिथ्म को पीड़ित मॉडल की वास्तुकला को जानने की आवश्यकता नहीं है, यह एक ब्लैक बॉक्स पर हमला करता है।"

स्पष्ट रूप से ब्लैक बॉक्स हमले कम प्रभावी हैं, लेकिन वे यह भी जानते हैं कि वास्तविक जीवन के हमले में सबसे अधिक संभावना क्या होगी। UCLA समूह 87 प्रतिशत की उच्च सफलता दर प्राप्त करने में सक्षम था, जब उन्होंने अपने मॉडलों में कमजोरियों का फायदा उठाने के लिए अपने हमले को दर्जी नहीं बनाया था। इस प्रकार के एआई के साथ खिलवाड़ करने पर एक सफेद बॉक्स हमला अधिक प्रभावी होगा। हालाँकि, अमेज़ॅन के एलेक्सा जैसे आभासी सहायक केवल ऐसी चीजें हैं जिनका प्रतिकूल उदाहरणों का उपयोग करके शोषण किया जा सकता है।

श्रीवास्तव ने कहा, "जो मशीनें ध्वनि से किसी प्रकार का अनुमान लगाने पर भरोसा कर रही हैं, उन्हें बेवकूफ बनाया जा सकता है।" “जाहिर है, अमेज़ॅन इको और ऐसा ही एक उदाहरण है, लेकिन बहुत सी अन्य चीजें हैं जहां ध्वनि का उपयोग दुनिया के बारे में अनुमान लगाने के लिए किया जाता है। आपके पास अलार्म सिस्टम से जुड़े सेंसर हैं जो आवाज़ में लेते हैं।"

ऑडियो क्यूज़ में कृत्रिम बुद्धिमत्ता प्रणाली जो अहसास पैदा करती है, वह प्रतिकूल उदाहरणों के लिए भी अतिसंवेदनशील होती है, यह महसूस करने में एक कदम आगे है कि ये हमले कितने शक्तिशाली हैं। जबकि समूह एक अल्जेंटोट की तरह एक प्रसारित हमले को खींचने में सक्षम नहीं था, उनका भविष्य का काम यह देखने के लिए घूमेगा कि यह कितना संभव है।

हालांकि इस शोध ने केवल सीमित वॉयस कमांड और हमलों के रूपों का परीक्षण किया, लेकिन इसने उपभोक्ता तकनीक के एक बड़े हिस्से में संभावित उत्थान को उजागर किया। यह प्रतिकूल उदाहरणों के खिलाफ बचाव और शिक्षण ए.आई. में आगे अनुसंधान के लिए एक कदम के रूप में कार्य करता है। उन्हें अलग कैसे बताया जाए।

$config[ads_kvadrat] not found