क्या स्वायत्त हथियार अवैध आदेशों को "नहीं" कहेंगे?

$config[ads_kvadrat] not found

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤
Anonim

जब उस पर छत गिरनी शुरू हुई तो बेअनज़र मोहम्मद नज़र ऑपरेटिंग टेबल पर बेहोश थे। चार के पिता ने पिछले दिन पैर में गोली लगने के बाद अस्पताल में जाँच की थी, और दो दिनों में अपने चोट को ठीक करने के लिए अपने दूसरे ऑपरेशन से गुजर रहे थे। जब अमेरिकियों ने इमारत को नष्ट करना शुरू किया, तो उस पर काम कर रहे डॉक्टरों के पास अपने दम पर भागने के अलावा कोई विकल्प नहीं था।

एंड्रयू क्विल्टी पर विदेश नीति एक लेख में बेयन्जार के जीवन और मृत्यु की कहानी बताती है जिसमें ऑपरेटिंग टेबल पर मलबे में ढंके उनके शरीर की तस्वीर शामिल है। 2 अक्टूबर को अफगानिस्तान के कुंदुज में डॉक्टर्स विदाउट बॉर्डर्स (जिसे MSF भी कहा जाता है) द्वारा चलाए जा रहे अस्पताल में मारे जाने के बाद संयुक्त राज्य अमेरिका में मारे गए 31 लोगों में से एक बंजार था।

हाई-प्रोफाइल, उच्च-नागरिक-आकस्मिक हमलों के बाद, राजनेता और पंडित पूछते हैं कि ऐसा कैसे हो सकता है, और यह सुनिश्चित करने के लिए क्या किया जा सकता है कि फिर से ऐसा न हो। स्वायत्त हथियार प्रणालियों के समर्थकों के बीच, जिसे कभी-कभी "हत्यारा रोबोट" कहा जाता है, एक लोकप्रिय तर्क यह है कि मानव त्रुटि (या द्वेष) युद्ध के दौरान किए गए अपराधों की बड़ी संख्या के लिए जिम्मेदार है। यह सैद्धांतिक रूप से संभव है, वे कहते हैं, कि रोबोट अपने लक्ष्यीकरण में अधिक सटीक हो सकते हैं, और मनुष्यों की तुलना में गलतियों की संभावना कम होती है।

"वास्तव में, मानव निर्णय युद्ध की गर्मी में कम विश्वसनीय और तकनीकी संकेतक साबित कर सकता है," अमेरिकी नौसेना युद्ध कॉलेज के एक प्रोफेसर माइकल एन शमिट, लिखते हैं। "जो लोग विश्वास करते हैं अन्यथा युद्ध के कोहरे का अनुभव नहीं किया है।"

अफगानिस्तान में MSF अस्पताल पर अमेरिकी हवाई हमले 'मानव त्रुटि के कारण मुख्य रूप से' http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- टेलीग्राफ समाचार (@TelegraphNews) 25 नवंबर, 2015

फिर, सवाल यह है कि क्या आप कुंडुज अस्पताल में बमबारी जैसे हमले को असंभव बनाने के लिए मानव व्यवहार पर रोक लगाने के लिए युद्ध के साधनों को प्रोग्राम कर सकते हैं, या कम से कम संभावना है?

शायद नहीं - कम से कम निकट भविष्य के लिए। लेकिन कुछ आर्टिफिशियल इंटेलिजेंस प्रोग्रामर्स ने एक ऐसा रोबोट डिजाइन किया है जो इंसानों को ना नहीं कह सकता। प्रयोग डिज़ाइन सरल है: मानव एक रोबोट को एक टेबल से आगे चलने के लिए कहता है, जिसे रोबोट शुरू में करने से मना करता है। जब मानव रोबोट को बताता है कि वह उसे पकड़ लेगा, तो रोबोट आदेश को स्वीकार कर लेता है।

यह एक अर्ध-स्वायत्त हमले के हेलीकॉप्टर से एक लंबा रास्ता है जो अपने मानव चालक दल को बताता है कि वह अस्पताल के खिलाफ हवाई हमले नहीं कर सकता है क्योंकि यह एक युद्ध अपराध होगा, लेकिन अंतर्निहित आधार काफी हद तक एक ही है। जैसा कि अन्य लोगों ने बताया है कि रोबोट में इस तरह के विकास के बारे में मानवीय चिंता विज्ञान कथाओं में सामान्य है - HAL-9000 कहती है कि "मैं ऐसा नहीं कर सकता, डेव" जब यह अंतरिक्ष स्टेशन के बाहर मानव को बंद कर देता है 2001: ए स्पेस ओडिसी.

कुंदुज हड़ताल की बारीकियों के अनुसार, हमले के आसपास के कई तथ्य विवादित हैं। MSF ने एक स्वतंत्र जांच की मांग की है, जिसका संयुक्त राज्य अमेरिका सरकार विरोध करती है, बजाय इसके कि वह अपनी समीक्षा करे।

एक अमेरिकी जांच के कुछ हिस्सों को इस महीने की शुरुआत में सार्वजनिक किया गया था, और हड़ताल के लिए मानवीय और यांत्रिक त्रुटियों को जिम्मेदार पाया गया। लेकिन इस सप्ताह की शुरुआत में, दो सेवा सदस्य रिपोर्ट के निष्कर्षों का खंडन करने के लिए आगे आए। वे कहते हैं कि हड़ताल एक गलती नहीं थी। उनके लेखांकन में, पहले द्वारा रिपोर्ट किया गया एपी, अमेरिकी विशेष अभियान बलों ने हड़ताल में बुलाया क्योंकि वे अस्पताल को तालिबान कमांड और नियंत्रण केंद्र के रूप में इस्तेमाल कर रहे थे।

आधिकारिक संस्करण में, एक यांत्रिक विफलता के कारण एसी -130 गनशिप के चालक दल को शुरू में एक खाली क्षेत्र के लिए निर्देशांक मिल रहा था। इसके बाद चालक दल ने उस क्षेत्र की एक इमारत की खोज की, जो उनके द्वारा दिए गए भौतिक विवरण में फिट हो, और आग लगा दी। जब उनके उपकरणों की पुनरावृत्ति हुई, तो उन्होंने चालक दल को अपने लक्ष्य के लिए सही निर्देशांक दिए, लेकिन चालक दल ने अस्पताल में वैसे भी आग लगाना जारी रखा।

यदि यह खाता सही है - कि कंप्यूटर अंततः सटीक था और मनुष्यों ने इसे नजरअंदाज कर दिया - यह हथियार प्रणालियों में अधिक स्वायत्तता के समर्थकों को कुछ विश्वास दिलाता है। उस ने कहा, आतंक पर अमेरिकी युद्ध सैन्य या सीआईए के उदाहरणों के साथ "सही" लक्ष्य को मार रहा है और अभी भी बड़ी संख्या में नागरिकों को मार रहा है। स्वचालन बुरी बुद्धि को हल नहीं करता है, और नैतिकता का एक अनुमान कार्यक्रम करने का प्रयास युद्ध अपराधों को समाप्त नहीं करेगा।

संयुक्त राज्य अमेरिका में युद्ध को निष्फल करने और स्वचालन के लिए एक मजबूत प्रलोभन है, अमेरिकियों को नुकसान के रास्ते से हटाकर, जो कि युद्ध की परिभाषा को बदलने के लिए नियत है। ड्रोन की हत्या के लिए ओबामा की प्राथमिकता और ड्रोन के साथ आने वाले आश्वासनों में सबसे सटीक हथियार जो अभी तक बनाए गए हैं, उन उद्देश्यों की स्पष्ट अभिव्यक्ति है। "2012 में गूगल हैंगआउट में ओबामा ने कहा," अलकायदा और उनके सहयोगियों के खिलाफ सटीक, सटीक हमले किए गए हैं।"

2013 के एक सरकारी अध्ययन में, हालांकि, उन दावों के विपरीत है। यह पाया गया कि अफगानिस्तान में ड्रोन मानव रहित वाहनों से 10 गुना अधिक नागरिक मृत्यु का कारण बने। अध्ययन के सह-लेखक सारा होलविंस्की ने कहा, "फाइटर जेट्स की तुलना में नागरिकों से बचने के लिए ड्रोन जादुई रूप से बेहतर नहीं हैं।" अभिभावक । "जब पायलटों को उड़ान भरने वाले विमानों को नागरिक सुरक्षा पर स्पष्ट निर्देश और प्रशिक्षण दिया गया था, तो वे नागरिक हताहत दरों को कम करने में सक्षम थे।"

सेना मानव-रोबोट टीमिंग सिस्टम विकसित करने पर लाखों खर्च कर रही है, आगे मानवयुक्त या मानव रहित हथियारों द्वारा किए गए मिशनों के बीच की रेखाओं को धुंधला कर रही है। उप रक्षा सचिव बॉब वर्क ने आधिकारिक DoD विज्ञान ब्लॉग को बताया, "हम मानव-मशीन का मुकाबला टीमिंग पर क्या करना चाहते हैं, इसे अगले स्तर तक ले जाना है। "क्या एक एफ -35 चार मानव रहित विंगमेन के साथ लड़ाई में जा सकता है?"

क्या वे विंगमैन यह नहीं कहेंगे कि मानव पायलट उन्हें एक आदेश देता है जो टेबल से चलने के अनुरूप है? अस्पताल या स्कूल को नष्ट करने के आदेश के बारे में क्या? युद्ध का कोहरा या तो मामले में लागू होने जा रहा है। और अगर हम मशीनों को ओवरराइड करने का फैसला करते हैं, तो वाक्यांश "मानव त्रुटि" भविष्य के संघर्षों में अधिक भयावह शब्दों में से एक होगा।

$config[ads_kvadrat] not found