ISIS विल टेंग सैन्य जंजीरों के खिलाफ हथियार सीखना मशीन

$config[ads_kvadrat] not found

सुपरहिट लोकगीत !! तोहरा अखिया के काजल हà

सुपरहिट लोकगीत !! तोहरा अखिया के काजल हà
Anonim

इंटरनेट पर सभी के पास ताई, माइक्रोसॉफ्ट के ट्विटर रोबोट के साथ एक महान समय था जो कुछ ही घंटों में एक नस्लवादी होलोकॉस्ट डेनियर बन गया (फिर वापस आया और फिर से किया)। कंपनी ने एक जनसंपर्क फ्लैप बनाया था - एक आपदा से अधिक घटना - जनता को मशीन सीखने के पेशेवरों और विपक्षों पर एक वस्तु का सबक देते हुए: स्वचालन गति पर आकर्षक प्रभाव के लिए पैटर्न का दोहन कर सकता है, लेकिन परिणाम भविष्यवाणी करने के लिए अनुमानित रूप से कठिन होंगे ।

जैसा कि अक्सर होता है, मिलिट्री ऑटोमेशन तकनीक का शुरुआती अपनाने वाला है। यह है - एक समय में - मशीन सीखने की दिशा में प्रभारी और भी बनाए रखने के लिए सख्त कोशिश कर रहा है। उदाहरण के लिए, पेंटागन के लिए मुख्य क्षेत्रों में से एक स्वायत्त रोबोट है और वे मनुष्यों के साथ कैसे काम करेंगे - एक R2D2 शैली का रोबोट विंगमैन। लेकिन इस हफ्ते, रक्षा उप सचिव रॉबर्ट कार्य ने ए.आई के लिए एक और कार्य की रूपरेखा तैयार की: खुला स्रोत डेटा क्रंचिंग।

"हम पूरी तरह से निश्चित हैं कि डीप-लर्निंग मशीनों का उपयोग हमें एक नेटवर्क के रूप में आईएसआईएल की बेहतर समझ और इसे ठीक से कैसे लक्षित करें और अपनी हार का नेतृत्व करने के बारे में बेहतर समझ रखने की अनुमति देने जा रहा है," सचिव के अनुसार, DoD की वेबसाइट। उस खाते के अनुसार, कार्य, जो द्वारा आयोजित एक कार्यक्रम में बोल रहा था वाशिंगटन पोस्ट, सिलिकॉन वैली टेक कंपनी को देखने के दौरान उनकी एपिफेनी थी, "जुलाई 2014 मलेशिया एयरलाइंस फ्लाइट 17 शूट-डाउन को वास्तविक समय में दिखाने के लिए ट्विटर, इंस्टाग्राम और कई अन्य सार्वजनिक स्रोतों से डेटा लेने वाली मशीन प्रदर्शित करता है।"

निजी कंपनियां और कानून प्रवर्तन लंबे समय से "बड़े डेटा" की भावना बनाने का प्रयास कर रहे हैं। लेकिन सेना का एक फायदा है: संसाधन। इसके अलावा, उन्हें वर्गीकृत सामग्रियों तक पहुंच प्राप्त है।

अमेरिकी सरकार यह शर्त लगाने के लिए तैयार है कि आईएसआईएस लक्ष्यों को पहचानने के लिए सॉफ़्टवेयर एल्गोरिदम वहां से भारी मात्रा में डेटा के माध्यम से सॉर्ट कर सकते हैं जो अन्यथा उन्हें हटा देगा, और योजनाकारों द्वारा उन्हें ले जाने से पहले भूखंडों का पता लगाने और बाधित करने में सक्षम है। सरकार पहले से ही ऑनलाइन विरोध प्रदर्शन के आकार की भविष्यवाणी करने के लिए सोशल मीडिया का अध्ययन करने की कोशिश कर रही है। ऐसा कोई प्रश्न नहीं है कि मशीन-शिक्षण दुनिया में उपलब्ध जानकारी के धन की समझ बनाने के लिए खुफिया विश्लेषकों को शक्ति बढ़ाएगा। लेकिन जब वह बुद्धिमत्ता उस आधार पर बन जाती है जिस पर एक घातक प्रहार किया जाता है, तो नैतिक मुद्दे अधिक जटिल हो जाते हैं, भले ही वे सीधे-सादे लगते हों।

यद्यपि कार्य यह बताने के लिए त्वरित था कि पेंटागन "एक मशीन को घातक अधिकार" नहीं सौंपेंगे, जो कि अंतिम गेम बना हुआ है। इस बीच, मनुष्य "पाश में" रहेगा, जैसा कि शब्दजाल चलता है। लेकिन जैसा कि किसी ने मौसम की रिपोर्ट के लिए एक आईफोन पर देखा है जब एक खिड़की के बगल में खड़ा है, जानता है कि हमारे उपकरणों और सॉफ्टवेयर के साथ हमारे संबंध सरल नहीं हैं। हम यूआई मुद्दों द्वारा समस्याग्रस्त रूप से विश्वसनीय और आसानी से विचलित हो गए हैं।

"ऑटोमेशन पूर्वाग्रह," मनुष्यों के लिए मशीनों को स्थगित करने की प्रवृत्ति, एक स्पष्ट और तेजी से वर्तमान खतरे को प्रस्तुत करती है। इस घटना का उदाहरण देने के लिए जाने वाला उदाहरण यह है कि जब आपका फ़ोन आपको एक यात्रा मार्ग लेने के लिए कहता है जिसे आप जानते हैं कि वह गलत है, लेकिन आप इसे वैसे भी करते हैं, तो यह मानते हुए कि फ़ोन को कुछ पता होना चाहिए कि आप क्या नहीं कर रहे हैं। यह गैर-सैन्य संदर्भों में एक आम समस्या है। क्या पेंटागन भी करीब-करीब कदम बढ़ाता दिख रहा है, हालांकि, कृत्रिम बुद्धिमत्ता द्वारा रचित खतरे की रिपोर्ट है। हम इस कार्यक्रम की संभावित प्रभावकारिता के अलावा कुछ भी नहीं जानते हैं कि इसे लागू करना मनुष्यों के लिए कठिन होगा।

2001 के एक पेपर में छात्र और पेशेवर पायलट और स्वचालन पूर्वाग्रह को देखते हुए, शोधकर्ताओं ने पाया कि "परिदृश्यों में जिसमें स्वचालन जाँच और स्वचालन विसंगतियों का पता लगाने के लिए सही जानकारी उपलब्ध थी, दोनों आबादी में 55% अनुमानित त्रुटि दर का दस्तावेजीकरण किया गया था।" अध्ययन में पाया गया है। अतिरिक्त मानव दल को जोड़ने से समस्या कम नहीं हुई।

इसी तरह, पिछले साल के एक एमआईटी अध्ययन में कुछ हद तक यह पाया गया कि कंप्यूटर और वीडियो गेम के खिलाड़ियों के पास "ऑटोमेशन को ओवरट्रस्ट करने की उच्च प्रवृत्ति" थी। इसका मतलब यह हो सकता है कि जितना अधिक समय हम अपनी स्क्रीन पर घूरते रहेंगे, उतना ही अधिक हम पर भरोसा करते हैं कि हम क्या देखते हैं। फिर, समस्या हमारे द्वारा उपयोग की जाने वाली प्रणालियों के साथ नहीं है, लेकिन जिस तरह से हम उनका उपयोग करते हैं। दोष हमारे सितारों में नहीं, बल्कि खुद में है।

बड़ा डेटा होनहार बना हुआ है। मशीन लर्निंग आशाजनक बनी हुई है। लेकिन जब मशीनें मनुष्यों को सलाह देती हैं, तो परिणाम अनुमानित रूप से अप्रत्याशित होते हैं। क्या एक नव-नाजी मिथ्याचार्य में तिवारी के परिवर्तन का मतलब यह है कि ट्विटर यहूदियों और महिलाओं से नफरत करता है? यह जानना कठिन है, लेकिन काफी संभावना नहीं है। जब हम इस प्रक्रिया को समझते हैं कि इनपुट कैसे आउटपुट बनते हैं, तो हम परिणामों के साथ तर्कसंगत तरीके से निपटने के लिए संघर्ष करते हैं। जो पेंटागन को एक दिलचस्प स्थिति में रखता है। क्या सेना के मशीन लर्निंग सॉफ्टवेयर को प्रोग्रामिंग करने वाले लोग हवाई हमले का आदेश देने वाले हैं? यह नहीं है कि कमांड की श्रृंखला कैसे काम करती है, लेकिन प्रौद्योगिकी के शामिल होने पर कमांड की चेन उलझ जाती है।

$config[ads_kvadrat] not found