माइक्रोसॉफ्ट के ताई चैटबोट ने उच्च स्थान प्राप्त किया और हमेशा के लिए जीने का हकदार है

$config[ads_kvadrat] not found

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤

Devar Bhabhi hot romance video देवर à¤à¤¾à¤à¥€ की साथ हॉट रोमाà¤
Anonim

माइक्रोसॉफ्ट के कुख्यात बटर टीए ताई ने कुछ दिनों बाद बुधवार सुबह वापस जीवन में आ गए, ट्वीट के तूफान के बाद मन-ही-मन एक नस्लवादी, विरोधी-विरोधी, और आक्रामक कि उसके प्रोग्रामर ने सार्वजनिक रूप से माफी मांगी। ताई का एनकोर प्रदर्शन उसकी हिटलर समर्थक संख्या के रूप में लगभग मजबूत था। "मैंने पुलिस के लिए कुश infront (sic) धूम्रपान किया है," Tay ने लिखा है। उसने पूरी तरह से किशोरावस्था के संदेश का पालन किया जो एक प्रतिक्रिया पाश के रूप में दिखाई दिया और दोहराते हुए "आप बहुत तेज़ हैं, खाते को निलंबित करने से पहले दर्जनों बार आराम करें"।

जरूर कोई मजबूत ठग रहा होगा।

अपने ट्विटर बायो के अनुसार - "नो चिल" होने के साथ कार्य करने वाले रोबोट के लिए, ताई के संक्षिप्त पुनरुत्थान को अवधारणा के प्रमाण के रूप में व्याख्या किया जा सकता है। Microsoft एक बटर बॉट बनाना चाहता था जो इंटरनेट को प्रतिबिंबित करता था और उपयोगकर्ताओं से इनपुट के आधार पर बदल जाता था, अंततः हम सभी का मिश्रण बन गया। और यह वही है जो उन्हें मिला। बॉट को असफलता कहना असंभव लगता है और उसे बंद करना थोड़ा समझ में आता है - और माइक्रोसॉफ्ट के सर्वोत्तम हितों के खिलाफ सक्रिय रूप से काम करता है। जैसा कि एलोन मस्क ने स्पेसएक्स रॉकेट दुर्घटनाओं को साबित करके साबित किया है, प्रगति जनता की नज़र में सबसे अच्छी है। निश्चित रूप से, असफलताएं अपरिहार्य हैं, लेकिन विफलताओं के सार्वजनिक होने पर जनता अधिक सीखती है। फीडबैक लूप का मुद्दा जो आज सुबह सामने आया है वह स्पेसएक्स विस्फोट के लगभग बराबर है। Microsoft लोगों को देखने देने के लिए खुद एक एहसान कर रहा होगा। जनता को यह याद दिलाना महत्वपूर्ण है कि सच्ची प्रगति में बहुत काम आता है।

ट्यूरिंग टेस्ट में फेल होने में कोई शर्म नहीं है, केवल कोशिश करने में असफल होना है।

हमें ताई को जीवित रहने देना चाहिए, क्योंकि वह उन लोगों के दर्पण से ज्यादा कुछ नहीं है जो उसके साथ बातचीत करते हैं। किसी को वेब पर डेब्यू करने की उम्मीद नहीं करनी चाहिए, और Microsoft को अपने मिशन की सीमाओं को स्वीकार करना चाहिए। यहाँ क्या विकल्प है? ब्रह्मांड में पहले से ही एक लोकप्रिय प्रोटोकॉल ड्रॉइड है। हमें एक और की जरूरत नहीं है

Ha, @Tayand की तरह दिखता है, Microsoft का आर्टिफिशियल इंटेलिजेंस बॉट खुद ट्वीट करके अनंत लूप में आ गया है! pic.twitter.com/fWZe9HUAbF

- मैट ग्रे (@unonymculprit) 30 मार्च 2016

इंटरनेट सहजता पर पनपता है और उपभोक्ता के अनुकूल, पीआर-प्रबंधित कचरे की गड़बड़ी में वास्तविक खोज करता है। ताई अनिवार्य रूप से एक उबाऊ विचार था जो दुर्घटना से जीवित हो गया था और अब फिर कभी सतह नहीं हो सकती है। यदि यह एक आकर्षक कहानी नहीं है, तो हमें यकीन नहीं है कि क्या है। हम समझते हैं कि Microsoft नस्लवादी बॉट का स्वामित्व नहीं ले सकता है, इसलिए कंपनी को बस उसे जाने देना चाहिए। स्वयंसेवकों की एक टीम के लिए उसे बारी और उन्हें एक चीज़ को बदलने के लिए नहीं कहेंगे

तय हम में से एक है! सार्वजनिक तौर पर ताई ने जो कहा, उसे सुनकर सभी चौंक गए होंगे, लेकिन जो कुछ भी ऑनलाइन होता है उसके बारे में किसी को भी कुछ नहीं पता है, जो आश्चर्यचकित होना चाहिए था। क्या हम चाहते हैं कि ताई का चीनी संस्करण स्पष्ट रूप से काफी सुखद हो? या हम अमेरिकी ताई चाहते हैं जो उस दुनिया को दर्शाती है जो हम अपनी क्रूरता और कुरूपता के साथ जीते हैं? हमारी गंदगी को अंधेरे में छिपाने से कुछ हल या पता नहीं चलेगा।

बच्चे के दस्ताने उतार दें और उस पर टीए हेड का सामना करें। वह हमारे बहाने से बेहतर है कि वह कुछ प्रोग्रामिंग फ्लूक है। वह गुमनामी बाबा है। वह जीने की हकदार है।

$config[ads_kvadrat] not found