सà¥à¤ªà¤°à¤¹à¤¿à¤Ÿ लोकगीत !! तोहरा अखिया के काजल हà
इंटरनेट पर सभी के पास ताई, माइक्रोसॉफ्ट के ट्विटर रोबोट के साथ एक महान समय था जो कुछ ही घंटों में एक नस्लवादी होलोकॉस्ट डेनियर बन गया (फिर वापस आया और फिर से किया)। कंपनी ने एक जनसंपर्क फ्लैप बनाया था - एक आपदा से अधिक घटना - जनता को मशीन सीखने के पेशेवरों और विपक्षों पर एक वस्तु का सबक देते हुए: स्वचालन गति पर आकर्षक प्रभाव के लिए पैटर्न का दोहन कर सकता है, लेकिन परिणाम भविष्यवाणी करने के लिए अनुमानित रूप से कठिन होंगे ।
जैसा कि अक्सर होता है, मिलिट्री ऑटोमेशन तकनीक का शुरुआती अपनाने वाला है। यह है - एक समय में - मशीन सीखने की दिशा में प्रभारी और भी बनाए रखने के लिए सख्त कोशिश कर रहा है। उदाहरण के लिए, पेंटागन के लिए मुख्य क्षेत्रों में से एक स्वायत्त रोबोट है और वे मनुष्यों के साथ कैसे काम करेंगे - एक R2D2 शैली का रोबोट विंगमैन। लेकिन इस हफ्ते, रक्षा उप सचिव रॉबर्ट कार्य ने ए.आई के लिए एक और कार्य की रूपरेखा तैयार की: खुला स्रोत डेटा क्रंचिंग।
"हम पूरी तरह से निश्चित हैं कि डीप-लर्निंग मशीनों का उपयोग हमें एक नेटवर्क के रूप में आईएसआईएल की बेहतर समझ और इसे ठीक से कैसे लक्षित करें और अपनी हार का नेतृत्व करने के बारे में बेहतर समझ रखने की अनुमति देने जा रहा है," सचिव के अनुसार, DoD की वेबसाइट। उस खाते के अनुसार, कार्य, जो द्वारा आयोजित एक कार्यक्रम में बोल रहा था वाशिंगटन पोस्ट, सिलिकॉन वैली टेक कंपनी को देखने के दौरान उनकी एपिफेनी थी, "जुलाई 2014 मलेशिया एयरलाइंस फ्लाइट 17 शूट-डाउन को वास्तविक समय में दिखाने के लिए ट्विटर, इंस्टाग्राम और कई अन्य सार्वजनिक स्रोतों से डेटा लेने वाली मशीन प्रदर्शित करता है।"
निजी कंपनियां और कानून प्रवर्तन लंबे समय से "बड़े डेटा" की भावना बनाने का प्रयास कर रहे हैं। लेकिन सेना का एक फायदा है: संसाधन। इसके अलावा, उन्हें वर्गीकृत सामग्रियों तक पहुंच प्राप्त है।
अमेरिकी सरकार यह शर्त लगाने के लिए तैयार है कि आईएसआईएस लक्ष्यों को पहचानने के लिए सॉफ़्टवेयर एल्गोरिदम वहां से भारी मात्रा में डेटा के माध्यम से सॉर्ट कर सकते हैं जो अन्यथा उन्हें हटा देगा, और योजनाकारों द्वारा उन्हें ले जाने से पहले भूखंडों का पता लगाने और बाधित करने में सक्षम है। सरकार पहले से ही ऑनलाइन विरोध प्रदर्शन के आकार की भविष्यवाणी करने के लिए सोशल मीडिया का अध्ययन करने की कोशिश कर रही है। ऐसा कोई प्रश्न नहीं है कि मशीन-शिक्षण दुनिया में उपलब्ध जानकारी के धन की समझ बनाने के लिए खुफिया विश्लेषकों को शक्ति बढ़ाएगा। लेकिन जब वह बुद्धिमत्ता उस आधार पर बन जाती है जिस पर एक घातक प्रहार किया जाता है, तो नैतिक मुद्दे अधिक जटिल हो जाते हैं, भले ही वे सीधे-सादे लगते हों।
यद्यपि कार्य यह बताने के लिए त्वरित था कि पेंटागन "एक मशीन को घातक अधिकार" नहीं सौंपेंगे, जो कि अंतिम गेम बना हुआ है। इस बीच, मनुष्य "पाश में" रहेगा, जैसा कि शब्दजाल चलता है। लेकिन जैसा कि किसी ने मौसम की रिपोर्ट के लिए एक आईफोन पर देखा है जब एक खिड़की के बगल में खड़ा है, जानता है कि हमारे उपकरणों और सॉफ्टवेयर के साथ हमारे संबंध सरल नहीं हैं। हम यूआई मुद्दों द्वारा समस्याग्रस्त रूप से विश्वसनीय और आसानी से विचलित हो गए हैं।
"ऑटोमेशन पूर्वाग्रह," मनुष्यों के लिए मशीनों को स्थगित करने की प्रवृत्ति, एक स्पष्ट और तेजी से वर्तमान खतरे को प्रस्तुत करती है। इस घटना का उदाहरण देने के लिए जाने वाला उदाहरण यह है कि जब आपका फ़ोन आपको एक यात्रा मार्ग लेने के लिए कहता है जिसे आप जानते हैं कि वह गलत है, लेकिन आप इसे वैसे भी करते हैं, तो यह मानते हुए कि फ़ोन को कुछ पता होना चाहिए कि आप क्या नहीं कर रहे हैं। यह गैर-सैन्य संदर्भों में एक आम समस्या है। क्या पेंटागन भी करीब-करीब कदम बढ़ाता दिख रहा है, हालांकि, कृत्रिम बुद्धिमत्ता द्वारा रचित खतरे की रिपोर्ट है। हम इस कार्यक्रम की संभावित प्रभावकारिता के अलावा कुछ भी नहीं जानते हैं कि इसे लागू करना मनुष्यों के लिए कठिन होगा।
2001 के एक पेपर में छात्र और पेशेवर पायलट और स्वचालन पूर्वाग्रह को देखते हुए, शोधकर्ताओं ने पाया कि "परिदृश्यों में जिसमें स्वचालन जाँच और स्वचालन विसंगतियों का पता लगाने के लिए सही जानकारी उपलब्ध थी, दोनों आबादी में 55% अनुमानित त्रुटि दर का दस्तावेजीकरण किया गया था।" अध्ययन में पाया गया है। अतिरिक्त मानव दल को जोड़ने से समस्या कम नहीं हुई।
इसी तरह, पिछले साल के एक एमआईटी अध्ययन में कुछ हद तक यह पाया गया कि कंप्यूटर और वीडियो गेम के खिलाड़ियों के पास "ऑटोमेशन को ओवरट्रस्ट करने की उच्च प्रवृत्ति" थी। इसका मतलब यह हो सकता है कि जितना अधिक समय हम अपनी स्क्रीन पर घूरते रहेंगे, उतना ही अधिक हम पर भरोसा करते हैं कि हम क्या देखते हैं। फिर, समस्या हमारे द्वारा उपयोग की जाने वाली प्रणालियों के साथ नहीं है, लेकिन जिस तरह से हम उनका उपयोग करते हैं। दोष हमारे सितारों में नहीं, बल्कि खुद में है।
बड़ा डेटा होनहार बना हुआ है। मशीन लर्निंग आशाजनक बनी हुई है। लेकिन जब मशीनें मनुष्यों को सलाह देती हैं, तो परिणाम अनुमानित रूप से अप्रत्याशित होते हैं। क्या एक नव-नाजी मिथ्याचार्य में तिवारी के परिवर्तन का मतलब यह है कि ट्विटर यहूदियों और महिलाओं से नफरत करता है? यह जानना कठिन है, लेकिन काफी संभावना नहीं है। जब हम इस प्रक्रिया को समझते हैं कि इनपुट कैसे आउटपुट बनते हैं, तो हम परिणामों के साथ तर्कसंगत तरीके से निपटने के लिए संघर्ष करते हैं। जो पेंटागन को एक दिलचस्प स्थिति में रखता है। क्या सेना के मशीन लर्निंग सॉफ्टवेयर को प्रोग्रामिंग करने वाले लोग हवाई हमले का आदेश देने वाले हैं? यह नहीं है कि कमांड की श्रृंखला कैसे काम करती है, लेकिन प्रौद्योगिकी के शामिल होने पर कमांड की चेन उलझ जाती है।
कैसे मन पर नियंत्रण युद्ध के खिलाफ पूर्वाग्रह में नींद को हथियार बना सकता है
थेरेसा फिशर का यह लेख मूल रूप से वैन विंकल में प्रकाशित किया गया था, यह प्रकाशन सोने के लिए समर्पित है। 26 फरवरी 2012 को एक निहत्थे युवक को स्किटल्स और एक एरिजोना फ्रूट पंच खरीदने के बाद गोली मार दी गई थी। दुखद रूप से, शॉट ने उनके जीवन को समाप्त कर दिया और एक देशव्यापी चर्चा को जन्म दिया, एक हूड स्वेटशर्ट में बदल गया ...
हथियार में विल की 'जाली में आग' की विल विलिस | जॉब हैक
करियर योजना के अनुसार शायद ही कभी जाता है। जॉब हैक्स में, हम विशेषज्ञों को उन अंतर्दृष्टि के लिए हिलाते हैं जो उन्होंने अपने क्षेत्र के शीर्ष पर अपने रास्ते पर खेती की थी। नाम: विल विलिस ओरिजिनल होमटाउन: "एवरीवेयर" जॉब: विलिस एक पूर्व आर्मी रेंजर और एयर फोर्स परारेस्कुमैन हैं, जो अब फायर में जाली, होस्ट चैनल शो में होस्ट करते हैं ...
क्या कोड सीखना और नई भाषा सीखना एक ही बात है?
नए ऐप Lrn में न तो स्वर और न ही नौटंकी के लिए समय है: इसे लोड करें, और आप सीधे अपने उद्देश्य के दिल में गोता लगाएँ, जो आपको कोड सिखाना है। नाथन बर्नार्ड, जिन्होंने टिंडर-फॉर-नेटवर्किंग ऐप कॉफ़ी का निर्माण किया, ने जुलाई के अंत में लर्न को सह-संस्थापक चिराग जैन और लोगान बर्नार्ड के साथ लॉन्च किया। उन्हें जरूरत नहीं थी ...