वीडियो: स्टंट एक्टर्स ने इस ए.आई. प्रौद्योगिकी एक दिन जल्द ही

Faith Evans feat. Stevie J – "A Minute" [Official Music Video]

Faith Evans feat. Stevie J – "A Minute" [Official Music Video]
Anonim

एक नई कृत्रिम खुफिया प्रणाली ने कंप्यूटर-एनिमेटेड स्टंटमैन विकसित किए हैं जो एक्शन फिल्मों को पहले से कहीं ज्यादा ठंडा बना सकते हैं। कैलिफोर्निया विश्वविद्यालय, बर्कले के शोधकर्ताओं ने एक प्रणाली विकसित की है, जो मार्शल आर्ट्स में कुछ सबसे धीमी चाल को फिर से लाने में सक्षम है, जिसमें वास्तविक जीवन के मानव अभिनेताओं को बदलने की क्षमता है।

यूसी बर्कले के स्नातक छात्र ज़ू बिन ke जेसन पेंग का कहना है कि प्रौद्योगिकी के परिणाम उन आंदोलनों में हैं जो मनुष्यों से अलग होना कठिन हैं।

पेंग ने अगस्त में कनाडा के वैंकूवर में 2018 के SIGGRAPH सम्मेलन में अपने शोध के साथ जारी एक बयान में कहा, "यह वास्तव में गहरी सीखने और एनीमेशन के साथ किया गया एक बहुत बड़ी छलांग है।" “अतीत में, बहुत सारे काम प्राकृतिक गतियों के अनुकरण में चले गए हैं, लेकिन ये भौतिकी-आधारित तरीके बहुत विशिष्ट हैं; वे सामान्य तरीके नहीं हैं जो बड़ी संख्या में कौशल को संभाल सकते हैं।

"यदि आप हमारे परिणामों की तुलना मनुष्यों से दर्ज गति पर कब्जा करने के लिए करते हैं, तो हम उस बिंदु पर पहुंच रहे हैं, जहां दो को अलग करना बहुत मुश्किल है, यह बताने के लिए कि क्या अनुकरण है और क्या वास्तविक है। हम एक आभासी स्टंटमैन की ओर बढ़ रहे हैं।"

डीपमिमिक नामक प्रोजेक्ट पर एक पेपर जर्नल में प्रकाशित हुआ था एसीएम ट्रांस। ग्राफ़ अगस्त में। सितंबर में, टीम ने अपना कोड और मोशन कैप्चर डेटा दूसरों के लिए उपलब्ध कराने के लिए GitHub पर उपलब्ध कराया।

टीम ने सिस्टम को कैसे स्थानांतरित किया जाए, यह सिखाने के लिए गहरी सुदृढीकरण सीखने की तकनीकों का उपयोग किया। इसने वास्तविक जीवन के प्रदर्शनों के डेटा पर कब्जा कर लिया, उन्हें सिस्टम में खिलाया और इसे पूरे महीने के बराबर एक सिमुलेशन में चालों का अभ्यास करने के लिए सेट किया, प्रति दिन 24 घंटे का प्रशिक्षण दिया। DeepMimic ने किकिंग और बैकफ्लिप जैसी 25 अलग-अलग चालें सीखीं, हर बार इसके परिणामों की तुलना करके देखें कि यह मूल mocap डेटा के कितने करीब आया।

अन्य प्रणालियों के विपरीत, जो बार-बार कोशिश कर सकते हैं और विफल हो सकते हैं, डीपिमिक ने कदमों को तोड़ दिया ताकि अगर यह एक बिंदु पर विफल हो जाए, तो यह अपने प्रदर्शन का विश्लेषण कर सकता है और तदनुसार सही समय पर ट्विक कर सकता है।

पेंग बताती हैं, "जैसे-जैसे ये तकनीक आगे बढ़ती है, मुझे लगता है कि वे फिल्मों में बड़ी और बड़ी भूमिका निभाने लगेंगी।" श्लोक में । "हालांकि, फिल्में आम तौर पर इंटरैक्टिव नहीं होती हैं, इन सिमुलेशन तकनीकों का गेम और वीआर पर अधिक तत्काल प्रभाव पड़ सकता है।

"वास्तव में, सिम्युलेटेड चरित्र सुदृढीकरण सीखने का उपयोग करके प्रशिक्षित किया गया है जो पहले से ही खेल के लिए अपना रास्ता तलाश रहे हैं। इन विचारों के लिए इंडी गेम्स बहुत अच्छा परीक्षण ग्राउंड हो सकता है। लेकिन एएए खिताब के लिए तैयार होने से पहले उन्हें कुछ समय लग सकता है, क्योंकि नकली पात्रों के साथ काम करने के लिए पारंपरिक विकास पाइपलाइनों से काफी कठोर बदलाव की आवश्यकता होती है। ”

गेम डेवलपर इन उपकरणों के साथ प्रयोग करना शुरू कर रहे हैं। एक डेवलपर एकता गेम इंजन के अंदर डीपिमिक का उपयोग करने में कामयाब रहा:

देवियों और सज्जनों, हमने बैकफ्लिप पूरा कर लिया है! रिंगो, उर्फ ​​स्टाइलट्रांसफर २.२४४ को बधाई - # यूनिटी 3 डी + # एमएलएगेंट्स और # मैराथन ईएनवीएस का उपयोग करते हुए। स्टाइलट्रांसफ़र MoCap डेटा उर्फ ​​दीपमीक http://t.co/gAGtYYeawE… #madewithunity pic.twitter.com/3iIoDsfdDee से #ActiveRagoll को प्रशिक्षित करता है

- जो बूथ (@iAmVidyaGamer) 1 नवंबर, 2018

पेंग को उम्मीद है कि कोड जारी करने से इसे अपनाने में तेजी आएगी। वह यह भी नोट करता है कि टीम "कई गेम डेवलपर्स और एनीमेशन स्टूडियो से इस काम के संभावित अनुप्रयोगों के बारे में बात कर रही है, हालांकि मैं अभी तक इसके बारे में बहुत अधिक विवरण में नहीं जा सकता हूं।"

मशीनें नियमित रूप से जटिल चालों के साथ संघर्ष करती हैं, जैसा कि फुटबॉल खेलने वाले रोबोटों द्वारा दिखाया जाता है जो किसी भी उच्च-ऑक्टेन चाल को पूरा करने के बजाय घास के पार नरम हो जाते हैं। प्रगति के संकेत हैं, जैसा कि ए.आई. वास्तविक दुनिया के आंदोलनों की जटिलताओं के साथ पकड़ में आता है और खुद को मनुष्यों की तरह अधिक सही करना शुरू कर देता है।

शायद दीपमीक एक दिन सेकंड में एक नई चाल सीख सकता है, इसी तरह नियो कैसे कुंग फू सीखता है साँचा.

सार नीचे पढ़ें।

चरित्र एनीमेशन में एक लंबा लक्ष्य एक सिस्टम के साथ व्यवहार के डेटा-संचालित विनिर्देश को संयोजित करना है जो एक भौतिक सिमुलेशन में एक समान व्यवहार को निष्पादित कर सकता है, इस प्रकार गड़बड़ी और पर्यावरण भिन्नता के लिए यथार्थवादी प्रतिक्रियाओं को सक्षम कर सकता है। हम दिखाते हैं कि अच्छी तरह से ज्ञात सुदृढीकरण सीखने (आरएल) के तरीकों को मजबूत नियंत्रण नीतियों को सीखने के लिए अनुकूलित किया जा सकता है, जो उदाहरण गति क्लिप की एक विस्तृत श्रृंखला की नकल करने में सक्षम हैं, जबकि जटिल पुनर्प्राप्ति भी सीख रहे हैं, आकृति विज्ञान में परिवर्तन के अनुकूल, और उपयोगकर्ता-निर्दिष्ट लक्ष्यों को पूरा करते हैं। हमारा तरीका कीफ़्रामेड गति, अत्यधिक गतिशील क्रियाओं जैसे मोशन-कैप्चर किए गए फ़्लिप और स्पिन और रिटारगेटेड मोशन को संभालता है। किसी कार्य उद्देश्य के साथ गति-अनुकरण के उद्देश्य को जोड़कर, हम उन पात्रों को प्रशिक्षित कर सकते हैं, जो इंट्रेक्टिव सेटिंग्स में समझदारी से प्रतिक्रिया करते हैं, जैसे, वांछित दिशा में चलना या उपयोगकर्ता द्वारा निर्दिष्ट लक्ष्य पर गेंद फेंकना। यह दृष्टिकोण इस प्रकार वांछित क्लिप शैली और उपस्थिति को परिभाषित करने के लिए मोशन क्लिप का उपयोग करने की सुविधा और गति की गुणवत्ता को जोड़ती है, आरएल विधियों और भौतिकी-आधारित एनीमेशन द्वारा वहन की गई लचीलेपन और व्यापकता के साथ। हम आगे बहु-कुशल एजेंटों को विकसित करने के लिए सीखने की प्रक्रिया में कई क्लिपों को एकीकृत करने के लिए कई तरीकों का पता लगाते हैं, जो विविध कौशल का एक समृद्ध प्रदर्शन करते हैं। हम कई पात्रों (मानव, एटलस रोबोट, बिपेडल डायनासोर, ड्रैगन) और कौशल की एक बड़ी विविधता का उपयोग करके परिणाम प्रदर्शित करते हैं, जिसमें लोकोमोशन, कलाबाजी और मार्शल आर्ट शामिल हैं।