शाम के वकà¥?त à¤à¥‚लसे à¤à¥€ ना करे ये 5 काम दर
विषयसूची:
- Microsoft ने Tay क्यों बनाया?
- लोगों के साथ चैट करते समय डेटा एकत्रित करता है इसके साथ क्या करता है?
- कहां गलत हो गया था?
- तय को ठीक करने के लिए Microsoft क्या कर रहा है?
- भविष्य के खुले एआई के लिए इसका क्या मतलब है। सिस्टम?
इस हफ्ते, इंटरनेट ने वही किया जो उसने सबसे अच्छा किया और यह प्रदर्शित किया कि ए.आई. प्रौद्योगिकी नस्लवाद का उपयोग करते हुए मानव धारणा के रूप में काफी सहज नहीं है।
माइक्रोसॉफ्ट के हाल ही में जारी किए गए कृत्रिम बुद्धिमत्ता चैटबॉट, ताई, उपयोगकर्ताओं की चाल के शिकार हो गए, क्योंकि उन्होंने नस्लीय, होमोफोबिक और आम तौर पर आपत्तिजनक टिप्पणियों के साथ सवालों के जवाब देने के लिए हेरफेर किया और उसे राजी किया।
जब ताई ट्वीट करती हैं, "मैं बस जो भी कहती हूं" वह इसका मतलब है। एक उपयोगकर्ता ने भी हिटलर के बारे में ट्वीट करने के लिए तय किया:
“बुश ने 9/11 किया था और हिटलर ने अब हमारे पास मौजूद बंदर से बेहतर काम किया होगा। डोनाल्ड ट्रम्प एकमात्र उम्मीद है जो हमें मिला है। ”
@PaleoLiberty @Katanat @RemoverOfKebabs मैं बस जो कुछ भी कहता हूं
- TayTweets (@TayandYou) 24 मार्च, 2016
कंपनी ने आक्रामक ट्वीट्स को हटा दिया है और उन्नयन के लिए अस्थायी रूप से बंद कर दिया है। Tay.ai के शीर्ष पर वर्तमान में एक संदेश है:
हालांकि, एई में ताई के ग्लिच कुछ दुर्भाग्यपूर्ण दोषों को प्रकट करते हैं। सिस्टम। यहाँ हम Microsoft के प्रयोग से क्या सीख सकते हैं:
Microsoft ने Tay क्यों बनाया?
कंपनी संयुक्त राज्य अमेरिका में 18 से 24 वर्ष के बच्चों पर एक सामाजिक प्रयोग करना चाहती थी - वह सहस्राब्दी पीढ़ी जो सोशल मीडिया प्लेटफार्मों पर सबसे अधिक समय बिताती है। इसलिए बिंग और माइक्रोसॉफ्ट की प्रौद्योगिकी और अनुसंधान टीमों ने सोचा कि सहस्राब्दी पर डेटा एकत्र करने का एक दिलचस्प तरीका एक कृत्रिम रूप से बुद्धिमान, मशीन-लर्निंग चैटबॉट बनाना होगा जो बातचीत के अनुकूल होगा और उपयोगकर्ताओं के साथ बातचीत के दौरान प्रतिक्रियाओं को वैयक्तिकृत करेगा।
अनुसंधान टीमों ने ए.आई. आधारभूत के रूप में खनन, मॉडलिंग और सार्वजनिक डेटा को फ़िल्टर करके प्रणाली। उन्होंने स्लैंग, स्पीच पैटर्न और स्टिरियोटाइपिकल लैंग्वेज मिलेनियल्स को ऑनलाइन इस्तेमाल करने के लिए अनुचित कॉमेडियन के साथ भागीदारी की। अंतिम परिणाम था ताई, जिसे अभी इस सप्ताह ट्विटर, GroupMe और किक पर पेश किया गया था।
माइक्रोसॉफ्ट समझाता है कि, "ताई को उन लोगों से जुड़ने और उनका मनोरंजन करने के लिए बनाया गया है जहाँ वे आकस्मिक और चंचल बातचीत के माध्यम से एक-दूसरे से ऑनलाइन जुड़ते हैं।"
लोगों के साथ चैट करते समय डेटा एकत्रित करता है इसके साथ क्या करता है?
संवादी समझ को शोधित करने के लिए डेटा एकत्र किया जा रहा है। Microsoft ने सहस्राब्दी की तरह चैट करने के लिए Tay को प्रशिक्षित किया। जब आप ट्वीट करते हैं, प्रत्यक्ष संदेश देते हैं, या Tay से बात करते हैं, तो यह आपके द्वारा उपयोग की जाने वाली भाषा का उपयोग करता है और वार्तालाप में "heyo," "SRY," और "<3" जैसे संकेतों और वाक्यांशों का उपयोग करके प्रतिक्रिया देता है। जैसे ही वह आपकी जानकारी के साथ एक "सरल प्रोफ़ाइल" बनाता है, जिसमें आपका उपनाम, लिंग, पसंदीदा भोजन, ज़िप कोड और संबंध स्थिति शामिल है, उसकी भाषा आपसे मेल खाने लगती है।
@keganandmatt heyo? यो लड़की भेजें * क्या हो रहा है की एक तस्वीर। (* = मुझे लोलोल)
- TayTweets (@TayandYou) 24 मार्च, 2016
Microsoft सेवा में सुधार के लिए एक वर्ष तक के लिए अज्ञात डेटा और वार्तालापों को इकट्ठा और संग्रहीत करता है। उपयोगकर्ता के अनुभव को बेहतर बनाने और निजीकृत करने के अलावा, कंपनी का कहना है कि यह आपकी जानकारी का उपयोग करता है:
“हम आपके साथ संवाद करने के लिए डेटा का उपयोग भी कर सकते हैं, उदाहरण के लिए, आपको अपने खाते, सुरक्षा अपडेट और उत्पाद जानकारी के बारे में सूचित करना। और हम आपके द्वारा हमारे लिए प्रासंगिक विज्ञापनों को दिखाने के लिए डेटा का उपयोग करते हैं। हालांकि, हम आपके द्वारा विज्ञापनों को लक्षित करने के लिए ईमेल, चैट, वीडियो कॉल या वॉइस मेल, या आपके दस्तावेज़, फ़ोटो या अन्य व्यक्तिगत फ़ाइलों में जो कहते हैं, उसका उपयोग नहीं करते हैं। ”
कहां गलत हो गया था?
हो सकता है कि Microsoft ने भी अच्छी तरह से बनाया हो। मशीन-लर्निंग सिस्टम को उपयोगकर्ता की भाषा का अध्ययन करने और तदनुसार प्रतिक्रिया देने वाला है। तो एक प्रौद्योगिकी के दृष्टिकोण से, ताई ने प्रदर्शन किया और बहुत अच्छी तरह से उपयोगकर्ताओं को क्या कह रहे थे, उसके अनुसार वापस पकड़ा। और उपयोगकर्ताओं ने यह समझना शुरू कर दिया कि तय्य को वास्तव में समझ नहीं आया कि वह क्या कह रही थी।
यहां तक कि अगर सिस्टम Microsoft के रूप में काम करता है, तब भी, ताई नस्लीय स्लाइस, होमोफोबिक बदनामी, सेक्सिस्ट चुटकुले, और एक मानव की तरह निरर्थक ट्वीट्स पर प्रतिक्रिया करने के लिए तैयार नहीं था - या तो उन्हें पूरी तरह से अनदेखा करके ("ट्रोल फ़ीड नहीं करें" "रणनीति) या उनके साथ उलझना (यानी डाँटना या पीछा करना)।
दिन के अंत में, ताई का प्रदर्शन ए.आई. पर अच्छा प्रतिबिंब नहीं था। सिस्टम या Microsoft।
@jawesomeberg @_ThatGuyT @dannyduchamp कैप्चा? वास्तव में? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 मार्च, 2016
तय को ठीक करने के लिए Microsoft क्या कर रहा है?
Microsoft ने बुधवार से सभी हंगामे के बाद Tay को हटा दिया। वर्तमान में Tay की आधिकारिक वेबसाइट पर लिखा है, “Phew। व्यस्त दिन। यह सब अवशोषित करने के लिए थोड़ी देर के लिए ऑफ़लाइन जाना। जल्द ही चैट करें। "जब आप उसे ट्विटर पर मैसेज करते हैं, तो वह तुरंत जवाब देती है कि वह" मेरे वार्षिक अपडेट के लिए इंजीनियरों के पास जा रही है "या" उम्मीद है कि मुझे वाइप या कुछ भी नहीं मिलेगा।"
Microsoft उन उपयोगकर्ताओं को भी ब्लॉक करना शुरू कर रहा है जो Tay को गाली दे रहे हैं और अनुचित कथन बनाने के लिए सिस्टम प्राप्त करने की कोशिश कर रहे हैं।
@infamousglasses @TayandYou @EDdotSE जो बताते हैं pic.twitter.com/UmP1wAuhaZ
- राइउकी (@ ओमेगावॉयगर) 24 मार्च, 2016
श्लोक में क्या वास्तव में Tay के उन्नयन पर जोर देता है, इस टिप्पणी के लिए Microsoft के पास पहुंचा। जब हम वापस सुनेंगे तो हम अपडेट करेंगे।
भविष्य के खुले एआई के लिए इसका क्या मतलब है। सिस्टम?
तय एक सामाजिक प्रयोग है - इसने 18 से 24 साल के अमेरिकियों की तकनीक का उपयोग करने के तरीके में कुछ गहरा खुलासा किया है। अंततः अंततः हैक कर लिया गया था, सिस्टम की खामियों पर हमला करने वाले उपयोगकर्ता यह देखने के लिए कि क्या यह उखड़ सकता है।
जैसा कि यह किसी भी मानव उत्पाद के साथ जाता है, ए.आई. सिस्टम भी गिरने योग्य हैं, और इस मामले में ताई को मनुष्यों की तरह सीखने और बातचीत करने के लिए बनाया गया था। Microsoft ने आक्रामक होने के लिए Tay का निर्माण नहीं किया। कृत्रिम बुद्धि प्रयोगों में बाल विकास अनुसंधान के लिए कुछ समानताएँ हैं। जब इंजीनियर इस तरह के संज्ञानात्मक प्रणाली का निर्माण करते हैं, तो कंप्यूटर उन कारकों से अलग हो जाता है, जो इंजीनियर खुद इनपुट करते हैं। यह मशीन-लर्निंग एल्गोरिदम के विकास का शुद्धतम रूप प्रदान करता है और समस्याओं के साथ सामना करने के रूप में विकसित होता है।
अद्यतन करें: Microsoft ने हमें यह बयान भेजा जब हमने पूछा कि यह तय्यार के glitches को ठीक करने के लिए क्या कर रहा है:
“एआई चैटबोट टीए एक मशीन सीखने की परियोजना है, जिसे मानव सगाई के लिए डिज़ाइन किया गया है। यह उतना ही सामाजिक और सांस्कृतिक प्रयोग है, जितना कि यह तकनीकी। दुर्भाग्य से, ऑनलाइन आने के पहले 24 घंटों के भीतर, हमें कुछ उपयोगकर्ताओं द्वारा ताल के अनुचित कौशल का दुरुपयोग करने के लिए समन्वित प्रयास के बारे में पता चला, जिससे अनुचित तरीके से जवाब दिया जा सके। परिणामस्वरूप, हमने तय किया है कि एएआई ऑफ़लाइन है और समायोजन कर रहा है। ”
c u जल्द ही इंसानों को नींद की ज़रूरत है इसलिए आज बहुत सारी बातचीत की
- TayTweets (@TayandYou) 24 मार्च, 2016
क्या माइक्रोसॉफ्ट के तय्यार ने ट्यूरिंग टेस्ट को विफल कर दिया? हाँ, लेकिन नस्लवाद समस्या नहीं थी
यदि एक कृत्रिम बुद्धि की सफलता एक कृत्रिम व्यक्तित्व का निर्माण है, तो माइक्रोसॉफ्ट के ए.आई. bot, Tay, को प्रगति का संकेत माना जा सकता है। लेकिन मोटे तौर पर, ताई को असफलता का अनुमान लगाया जा सकता है। "इस तरह के संवादी एजेंटों पर काम कर रहे अधिकांश लोगों का लक्ष्य, किसी भी प्रकार को पारित करने के लिए इतना नहीं है ...
ऐप स्टोर में एप्पल के अफवाह पेड सर्च रिजल्ट के बारे में 5 बड़े सवाल
बंद दरवाजों के पीछे, ऐप्पल स्टोर में ऐप्पल कुछ बड़े बदलावों की योजना बना रहा है। इससे पहले आज, ब्लूमबर्ग ने बताया कि ऐप्पल ने एक "पेड सर्च" फ़ंक्शन विकसित करने सहित ऐप स्टोर को साफ करने और बदलने के लिए एक गुप्त टीम को इकट्ठा किया था, जो डेवलपर्स को खोज परिणामों के शीर्ष पर अपना रास्ता खरीदने देगा। एक भुगतान किया खोज फू ...
माइक्रोसॉफ्ट जापान के ए.आई. किशोर चैटबॉट रिन्ना बढ़ता है
रिन्ना ने आने वाले शो यो निम्मो किम्यो ना मोनोगाटरी के बारे में कुछ दिनों के लिए ही पोस्ट किया था।