यदि आप ध्यान दे रहे हैं तो A.I. की तीव्र प्रगति डरावनी होनी चाहिए

$config[ads_kvadrat] not found

ये कà¥?या है जानकार आपके à¤à¥€ पसीने छà¥?ट ज

ये कà¥?या है जानकार आपके à¤à¥€ पसीने छà¥?ट ज
Anonim

जब यह तकनीकी नवाचारों द्वारा उत्पन्न अस्तित्व संबंधी खतरों की पहचान करने की बात आती है, तो लोकप्रिय कल्पना के दर्शन होते हैं टर्मिनेटर, साँचा, तथा मैं रोबोट - रोबोट अधिपति द्वारा शासित डायस्टोपिया जो शोषण करते हैं और लोगों को अलग करते हैं। इन सट्टा वायदाओं में, सुपर-इंटेलिजेंस और बुरे इरादों का एक संयोजन कंप्यूटर को मानव जाति को खत्म करने या गुलाम बनाने की ओर ले जाता है।

हालांकि, एक नए अध्ययन से पता चलता है कि यह ए.आई. जो अगले कुछ वर्षों में गंभीर सामाजिक परिणाम देगा। रिपोर्ट - "आर्टिफिशियल इंटेलिजेंस का दुर्भावनापूर्ण उपयोग" - कुलीन विश्वविद्यालयों और तकनीक-केंद्रित थिंक टैंक के 26 शोधकर्ताओं और वैज्ञानिकों द्वारा लिखित, वर्तमान ए.आई. प्रौद्योगिकियों से हमारी शारीरिक, डिजिटल और राजनीतिक सुरक्षा को खतरा है। उनके अध्ययन को ध्यान में लाने के लिए, अनुसंधान समूह ने केवल उस तकनीक को देखा जो पहले से मौजूद है या आने वाले पांच वर्षों के भीतर है।

अध्ययन में क्या पाया गया: A.I. सिस्टम संभावित रूप से मौजूदा खतरों का विस्तार करेंगे, नए लोगों को पेश करेंगे और उनमें से चरित्र को बदल देंगे। रिपोर्ट की थीसिस है कि तकनीकी विकास कुछ दुष्कर्मों को आसान और अधिक सार्थक बना देगा। शोधकर्ताओं का दावा है कि ए.आई. कुछ साइबर हमलों को अंजाम देने के लिए आवश्यक संसाधनों और विशेषज्ञता की मात्रा को कम कर देगा, प्रभावी रूप से अपराध के लिए बाधाओं को कम करेगा:

आमतौर पर मानव श्रम, खुफिया और विशेषज्ञता की आवश्यकता वाले कार्यों को पूरा करने के लिए एआई सिस्टम के स्केलेबल उपयोग से हमलों की लागत को कम किया जा सकता है। एक प्राकृतिक प्रभाव उन अभिनेताओं के सेट का विस्तार करना होगा जो विशेष हमलों को अंजाम दे सकते हैं, जिस दर पर वे इन हमलों को अंजाम दे सकते हैं, और संभावित लक्ष्यों का सेट।

रिपोर्ट चार सिफारिशें करती है:

1 - नीति निर्माताओं को एआई के संभावित दुर्भावनापूर्ण उपयोगों की जांच, रोकथाम और शमन करने के लिए तकनीकी शोधकर्ताओं के साथ मिलकर सहयोग करना चाहिए।

2 - कृत्रिम बुद्धिमत्ता में शोधकर्ताओं और इंजीनियरों को अपने काम के दोहरे उपयोग की प्रकृति को गंभीरता से लेना चाहिए, जिससे अनुसंधान की प्राथमिकताओं और मानदंडों को प्रभावित करने के लिए गलत विचारों को अनुमति दी जा सके, और हानिकारक अनुप्रयोगों के अप्रभावी होने पर प्रासंगिक अभिनेताओं तक पहुंच सके।

3 - दोहरे उपयोग की चिंताओं को दूर करने के लिए अधिक परिपक्व तरीकों के साथ अनुसंधान क्षेत्रों में सर्वोत्तम प्रथाओं की पहचान की जानी चाहिए, जैसे कि कंप्यूटर सुरक्षा, और आयातित जहां एआई के मामले में लागू होता है।

4 - सक्रिय रूप से इन चुनौतियों की चर्चा में शामिल हितधारकों और डोमेन विशेषज्ञों की श्रेणी का विस्तार करना चाहते हैं

कैसे ए.आई. कर सकते हैं वर्तमान घोटाले होशियार: उदाहरण के लिए, भाला फ़िशिंग हमले, जिसमें चोर कलाकार विश्वास हासिल करने और जानकारी और पैसा निकालने के लिए एक लक्ष्य के दोस्त, परिवार के सदस्य या सहकर्मी के रूप में मुद्रा बनाते हैं, पहले से ही एक खतरा है। लेकिन आज, उन्हें समय, ऊर्जा और विशेषज्ञता के महत्वपूर्ण व्यय की आवश्यकता होती है। जैसा कि ए.आई. सिस्टम परिष्कार में वृद्धि करते हैं, भाला फ़िशिंग हमले के लिए आवश्यक कुछ गतिविधि, जैसे लक्ष्य के बारे में जानकारी एकत्र करना, स्वचालित हो सकता है। एक फ़िशर तब प्रत्येक दरार में काफी कम ऊर्जा निवेश कर सकता है और अधिक लोगों को लक्षित कर सकता है।

और यदि स्कैमर्स ए.आई. अपने ऑनलाइन बदलाव में, सिमुलेशन से वास्तविकता को अलग करना असंभव हो सकता है। रिपोर्ट में कहा गया है, "जैसा कि एआई और विकसित करता है, लोगों को लंबे संवादों में उलझाकर मानव भरोसे पर भरोसा कर सकता है, और शायद वीडियो चैट में किसी अन्य व्यक्ति के रूप में दिखाई देता है।"

हमने पहले से ही मशीन-जनित वीडियो के परिणामों को डीपफेक के रूप में देखा है। जैसे-जैसे ये प्रौद्योगिकियां अधिक सुलभ और उपयोगकर्ता के अनुकूल होती जाती हैं, शोधकर्ताओं को चिंता होती है कि बुरे कलाकार मनगढ़ंत तस्वीरें, वीडियो और ऑडियो फ़ाइलों का प्रसार करेंगे। इसके परिणामस्वरूप राजनीतिक प्रभाव वाले अत्यधिक सफल मानहानि अभियान हो सकते हैं।

कीबोर्ड से परे: और संभावित खराबी इंटरनेट पर प्रतिबंधित नहीं है। जब हम स्वायत्त वाहनों को अपनाने की दिशा में आगे बढ़ते हैं, तो हैकर्स स्व-ड्राइविंग कारों को अपने परिवेश को गलत तरीके से दिखाने के लिए प्रतिकूल उदाहरणों को तैनात कर सकते हैं। रिपोर्ट में कहा गया है, "कुछ पिक्सल के साथ स्टॉप साइन की एक छवि विशिष्ट रूप से बदल गई, जिसे मनुष्य आसानी से पहचान लेंगे क्योंकि स्टॉप साइन की छवि अभी भी है, फिर भी एआई सिस्टम द्वारा पूरी तरह से कुछ और के रूप में मिसकैरेज हो सकता है," रिपोर्ट में कहा गया है।

अन्य खतरों में लक्षित उद्देश्यों के लिए एकीकृत चेहरे की पहचान सॉफ्टवेयर के साथ स्वायत्त ड्रोन शामिल हैं, जो मानव व्यवहार की नकल करते हैं, और स्वचालित, अति-व्यक्तिगत कीटाणुशोधन अभियानों को समन्वित करते हैं।

रिपोर्ट की सिफारिश है कि शोधकर्ताओं ने ए.आई. के संभावित दुर्भावनापूर्ण अनुप्रयोगों पर विचार किया। इन तकनीकों को विकसित करते हुए।यदि पर्याप्त सुरक्षा उपाय नहीं किए गए हैं, तो हमारे पास पहले से ही मानवता को नष्ट करने की तकनीक हो सकती है, किसी हत्यारे रोबोट की आवश्यकता नहीं है।

$config[ads_kvadrat] not found