मस्क, वोज्नियाक, हॉकिंग, अन्य प्रतिभाएं स्वायत्त हथियारों का विरोध कर रही हैं

$config[ads_kvadrat] not found

D लहंगा उठावल पड़ी महंगा Lahunga Uthaw 1

D लहंगा उठावल पड़ी महंगा Lahunga Uthaw 1
Anonim

दशकों से, AK-47 दुनिया के कई धूल भरे कोनों में पसंद की हत्या मशीन है क्योंकि यह सस्ता, टिकाऊ और सर्वव्यापी है। फ्यूचर ऑफ लाइफ इंस्टीट्यूट की ओर से सोमवार को जारी किए गए एक खुले पत्र के तर्क के कारक, यही कारण हैं कि स्वायत्त हथियार संकट से घिर गए हैं। लेकिन कलाश्निकोव्स से कृत्रिम बुद्धिमत्ता के हथियार को अलग करने का अर्थ यह है कि स्वायत्त मशीन "मानवीय हस्तक्षेप के बिना लक्ष्यों का चयन और संलग्न कर सकती है" - जो कि गलत हाथों में, किसी भी अलौकिक कारनामे की तुलना में अत्याचारों को अधिक दूर कर सकती है।

हस्ताक्षरकर्ताओं ने अपना काम उनके लिए काट दिया है। मनुष्य के रूप में, हम समग्र रूप से, सोच की तुलना में प्रतिक्रिया करने में बहुत बेहतर हैं। प्रमुख खिलाड़ी हमारे परमाणु हथियारों को कम करने के लिए धीमा हो गए हैं (और स्वायत्त ड्रोन का निर्माण कर रहे हैं, सोच चलती है, उन्हें उस मशीनरी के एक हिस्से की आवश्यकता होगी जो एक परमाणु बनाने में जाती है); कहीं और, भूमि की खदानें अभी भी दशकों पुराने युद्धक्षेत्र हैं। जब कोई तकनीक युद्ध में क्रांति करने के लिए खड़ी हुई - तो क्या वह बारूद या नौसैनिक खूंखार या समृद्ध यूरेनियम है - लगभग कभी नहीं नहीं हथियारों की होड़ रही।

FLI उन ड्रोनों के बीच अंतर करता है जो अब हमारे पास हैं, जो मानव हाथों द्वारा दूर से पायलट किए जाते हैं, और एक रोबोट अपने स्वयं के जानलेवा उपकरणों पर चला जाता है। उत्तरार्द्ध का निर्माण एक वैश्विक एआई हथियारों की दौड़ को बढ़ावा देगा, जो कि एफएलआई का तर्क है, और कलाश्निकोव के इतिहास के रूप में प्रदर्शित करता है, अच्छी तरह से समाप्त नहीं होगा:

यह केवल कुछ समय के लिए होगा जब तक वे काला बाजार में दिखाई नहीं देते और आतंकवादियों के हाथों में, तानाशाह अपने आबादी को बेहतर ढंग से नियंत्रित करने की इच्छा रखते हैं, जातीय सफाई को खत्म करने की इच्छा रखने वाले सरदारों, आदि स्वायत्त हथियार हत्याओं, अस्थिर करने जैसे कार्यों के लिए आदर्श हैं। राष्ट्र, आबादी को वश में करना और चुनिंदा रूप से एक विशेष जातीय समूह को मारना। इसलिए हम मानते हैं कि एक सैन्य एआई हथियारों की दौड़ मानवता के लिए फायदेमंद नहीं होगी। ऐसे कई तरीके हैं जिनसे एआई लोगों को मारने के लिए नए उपकरण बनाने के बिना, विशेष रूप से नागरिकों के लिए युद्ध के मैदान को सुरक्षित बना सकता है।

यह कुछ भारी बकवास है। और इस चेतावनी के पीछे के नाम आपके रन-ऑफ-द-मिल स्काईनेट क्रेकपॉट नहीं हैं - वे निर्माता, इंजीनियर, वैज्ञानिक और दार्शनिक हैं जिन्होंने हमारी तकनीक को आज की तरह दिखने में मदद की है। नामों में से एक स्लाइस में शामिल हैं: एप्पल के स्टीव वोज्नियाक, स्काइप के जान टालिन, हार्वर्ड के भौतिक विज्ञानी लिसा रान्डेल, जो एआई शोधकर्ताओं और रोबोटिकों में से एक हैं - जिनमें स्टुअर्ट रसेल, बारबरा जे। फ्रोज़, टॉम मिशेल, एरिक होर्विट्ज़ - अभिनेत्री तलुल्लाह रिले, नोआम चोमस्की शामिल हैं।, स्टीफन हॉकिंग।

हॉकिंग के पास हाल ही में निराशावादी तुला के एक बिट पर है, अलौकिक जीवन का सामना करने के खतरों के बारे में अपनी भविष्यवाणियों को भी दोहराया। वह इस सप्ताह Reddit पर इस पत्र और प्रौद्योगिकी के भविष्य के बारे में सवालों के जवाब दे रहे हैं - हम शत्रुतापूर्ण एलियंस को नियंत्रित करने में सक्षम नहीं हो सकते हैं, लेकिन हम मानव कारक रखने के लिए इस तकनीक में सबसे आगे "वैज्ञानिकों पर" डाल सकते हैं सामने और उनके नवाचारों का केंद्र। ”

आप अपना नाम पत्र में भी जोड़ सकते हैं।

$config[ads_kvadrat] not found