क्या माइक्रोसॉफ्ट के तय्यार ने ट्यूरिंग टेस्ट को विफल कर दिया? हाँ, लेकिन नस्लवाद समस्या नहीं थी

$config[ads_kvadrat] not found

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤
Anonim

यदि एक कृत्रिम बुद्धि की सफलता एक कृत्रिम का निर्माण है व्यक्तित्व, माइक्रोसॉफ्ट के ए.आई. bot, Tay, को प्रगति का संकेत माना जा सकता है। लेकिन मोटे तौर पर, ताई को असफलता का अनुमान लगाया जा सकता है।

"इस तरह के संवादी एजेंटों पर काम कर रहे अधिकांश लोगों का लक्ष्य किसी भी प्रकार के ट्यूरिंग टेस्ट को पास करना नहीं है, लेकिन वास्तव में भाषा की एक उपयोगी कमान है जो चीजों के प्रति संवेदनशीलता से प्रतिक्रिया करती है और लोगों को ज्ञान तक पहुंच प्रदान करती है," माइल्स ब्रूंडेज, एक पीएच.डी. एरिजोना स्टेट यूनिवर्सिटी में विज्ञान और प्रौद्योगिकी के मानव और सामाजिक आयामों का अध्ययन करने वाला छात्र बताता है श्लोक में.

Microsoft ने निर्माण की कुछ समस्याओं का उदाहरण दिया। इस हफ्ते जब 24 घंटे से भी कम समय में इंटरनेट चला, तो इंटरनेट ने एक महिला, सहस्राब्दी, स्वचालित, ट्विटर व्यक्तित्व के रूप में जो सबसे अधिक नस्लवादी और नीच भाषण के लिए साउंडिंग बोर्ड में होना चाहिए था, ट्रोल की पेशकश की।

Microsoft ने तुरंत प्रयोग को बंद कर दिया और माफी मांगी: "हमें ताई से अनपेक्षित आक्रामक और आहत ट्वीट्स के लिए गहरा खेद है, जो यह नहीं दर्शाते हैं कि हम कौन हैं या हम किसके लिए खड़े हैं, न ही हमने कैसे ताई को डिज़ाइन किया है।"

जब यह ट्यूरिंग टेस्ट की बात आती है, तो एआई का आकलन करने के लिए इस्तेमाल किया जाने वाला प्रसिद्ध प्रयोग, ब्रूंडेज कहते हैं कि आम तौर पर बोल, विचार के दो स्कूल - शाब्दिक और सैद्धांतिक हैं।

1950 में विकसित, एलन ट्यूरिंग ने इस सवाल का जवाब देने का प्रयास किया, "क्या मशीनें सोच सकती हैं?" उन्होंने एक नकली परीक्षा के माध्यम से मशीनें लगाईं, जिसमें दो साक्षात्कारकर्ताओं के लिंग का निर्धारण करने के लिए एक पर्यवेक्षक की आवश्यकता होती है, जिनमें से एक ए.आई. यदि कंप्यूटर एक निश्चित संख्या में पर्यवेक्षकों को चकमा देने में सक्षम है, तो उसने परीक्षा पास कर ली है।

हैलो लुओ वूल्ड !!!

- TayTweets (@TayandYou) 23 मार्च, 2016

अगर हम शाब्दिक रूप से इस परीक्षण को लागू करने के लिए थे उलटा की टीए के साथ निजी बातचीत, उसने राजनीतिक सवालों के जवाब दिए, स्पष्ट रूप से, समाज पर "मन्नन" के झोंपड़े का संदर्भ दिया, और कुछ सामान्य टेक्सिंग संक्षिप्त और इमोजी का इस्तेमाल किया। ब्रूंडेज ने कहा कि टीए ने सहस्राब्दी व्यवहार प्रदर्शित किया, लेकिन यह कि ए.आई. पहले बनाए गए हैं।

ब्रेंडेज कहते हैं, '' ट्विटर पर दिखने वाली किशोरी की टिप्पणी का उत्पादन करना वास्तव में व्यापक भाषाई और बौद्धिक क्षमता का मूल नहीं है। "उस ने कहा, अगर हम वास्तव में ट्यूरिंग टेस्ट को सचमुच में लेते थे, जो मुझे नहीं लगता कि जरूरी है, तो एक संस्करण यह है कि उसकी बहुत सारी टिप्पणियां मानवीय रूप से समान थीं।"

लेकिन अगर हम ब्रेंडेज के सुझाव के अनुसार व्यापक दृष्टिकोण अपनाते हैं, तो यह स्पष्ट है कि ताई ने उचित मानव भाषण प्रदर्शित नहीं किया।

Microsoft परीक्षण कर रहा था जिसे वह "संवादी समझ" कहता है, ताकि वह जितने अधिक लोगों से ट्विटर, GroupMe और Kik के माध्यम से बात करता है, उतना ही वह सीखने और अनुकूलन करने वाला था। लेकिन वह केवल अन्य उपयोगकर्ताओं को इसे खिला रही थी और बस इसे दुनिया में वापस दोहरा रही थी।

"ताई" <24 घंटे में पूरी नाज़ी के लिए "इंसान सुपर कूल हैं" से गया और मैं एआई के भविष्य के बारे में चिंतित नहीं हूं। pic.twitter.com/xuGi1u9S1A

- गेरी (@geraldmellor) 24 मार्च, 2016

"अधिकांश मनुष्य आपके बाद सब कुछ नहीं दोहराएंगे, आपने जो कुछ कहा है," ब्रूंडेज कहते हैं।

“बुश ने 9/11 किया” और “हिटलर ने अब हमें जो बंदर मिला है, उससे बेहतर काम किया होगा”, यह संभवत: कुछ ऐसा था जिसे कोई वास्तव में टाइप करता था, लेकिन यह वास्तव में विनम्र बातचीत नहीं है।

"निश्चित रूप से, ट्यूरिंग परीक्षण को कलाकृत करने में उनका उद्देश्य कुछ परीक्षण के विवरणों को कम करने और लोगों को यह सोचने के लिए उकसाने के लिए कम था कि आप किस बिंदु पर इस प्रणाली में बुद्धिमान होने के लिए तैयार होंगे, और लोगों की सोच को खोलने के लिए।" संभावना है कि मशीनें सोचने में सक्षम हैं, "ब्रूंडेज कहते हैं।

$config[ads_kvadrat] not found