जैसा कि हमने पिछली पोस्ट में क्वेस्ट 2 डिवाइस को लक्षित करते हुए अपना सफलतापूर्वक बनाया था, अब हम मेटा द्वारा प्रेजेंस प्लेटफ़ॉर्म के माध्यम से प्रदान की गई क्षमताओं के सबसे शक्तिशाली सेट में से एक के बारे में जानकारी प्राप्त करेंगे। पहला यूनिटी प्रोजेक्ट मेटा का प्रेजेंस प्लेटफार्म क्या है? प्रेजेंस प्लेटफ़ॉर्म को आभासी वास्तविकता वातावरण में साझा उपस्थिति और बातचीत की भावना पैदा करने के लिए है। यह लोगों को वीआर हेडसेट का उपयोग करके इमर्सिव वर्चुअल स्पेस में एक-दूसरे से जुड़ने, बातचीत करने, संलग्न होने में सक्षम बनाता है। डिज़ाइन किया गया मेटा के प्रेजेंस प्लेटफ़ॉर्म की विशेषताओं और क्षमताओं में शामिल हैं: उपस्थिति प्लेटफ़ॉर्म उपयोगकर्ताओं को अपने डिजिटल अवतार बनाने और अनुकूलित करने की अनुमति देता है, जो आभासी दुनिया में उनका प्रतिनिधित्व करते हैं। ये अवतार उपयोगकर्ताओं की वास्तविक जीवन की गतिविधियों, भावों और इशारों की नकल कर सकते हैं, जिससे उपस्थिति और सामाजिक संपर्क की भावना बढ़ सकती है। अवतार प्रणाली: उपयोगकर्ता साझा आभासी वातावरण में दोस्तों और अन्य लोगों से मिल सकते हैं और बातचीत कर सकते हैं। वे एक साथ विभिन्न गतिविधियों में शामिल हो सकते हैं, जैसे गेम खेलना, वर्चुअल इवेंट में भाग लेना, वीडियो देखना और बहुत कुछ। सामाजिक संपर्क: प्लेटफ़ॉर्म स्थानिक ऑडियो को शामिल करता है, जिसका अर्थ है कि आभासी वातावरण में ध्वनि स्थान-आधारित है। यह अधिक यथार्थवादी और गहन ऑडियो अनुभव बनाता है, क्योंकि उपयोगकर्ता वास्तविक दुनिया की तरह ही विशिष्ट दिशाओं से आने वाली ध्वनियाँ सुन सकते हैं। स्थानिक ऑडियो: प्रेजेंस प्लेटफ़ॉर्म हैंड ट्रैकिंग तकनीक का समर्थन करता है, जो उपयोगकर्ताओं को नियंत्रकों की आवश्यकता के बिना सीधे वीआर में अपने हाथों और उंगलियों का उपयोग करने में सक्षम बनाता है। यह बातचीत को अधिक स्वाभाविक और सहज बनाता है। हैंड ट्रैकिंग: प्लेटफ़ॉर्म को विभिन्न ओकुलस वीआर हेडसेट्स पर काम करने के लिए डिज़ाइन किया गया है, जो विभिन्न उपकरणों वाले उपयोगकर्ताओं को एक-दूसरे से जुड़ने और बातचीत करने की अनुमति देता है। क्रॉस-प्लेटफ़ॉर्म समर्थन: डेवलपर्स के लिए, प्रेजेंस प्लेटफ़ॉर्म वीआर अनुप्रयोगों, गेम और अनुभवों को बनाने और प्रकाशित करने के लिए उपकरण और एपीआई प्रदान करता है, जो आभासी सामग्री के एक संपन्न पारिस्थितिकी तंत्र को सक्षम करता है। सामग्री निर्माण उपकरण: हैंड ट्रैकिंग से शुरुआत जैसा कि आप देख सकते हैं प्रेजेंस प्लेटफ़ॉर्म उप-प्रणाली/सुविधाओं का व्यापक सेट है, और मैं उनमें से प्रत्येक को विस्तार से कवर करूंगा, लेकिन आरंभ करने के लिए - आइए वीआर गेम विकास के लिए बुनियादी आवश्यकताओं में से एक के रूप में हैंड ट्रैकिंग से शुरू करें - हम सेटअप करेंगे , हैंड ट्रैकिंग गेम जैसे अनुभव का निर्माण और लॉन्च करें। एक आदर्श प्रारंभिक बिंदु ओकुलस-सैंपल्स द्वारा प्रदान किया गया अनुभव है। रेपो यूनिटी-फर्स्टहैंड फिर से, कृपया विकास परिवेश स्थापित करने पर देखें और सुनिश्चित करें कि विभिन्न निर्भरताएँ स्थापित हैं। पिछली पोस्ट सुनिश्चित करें कि आपके पास Git LFS स्थापित है, यह कमांड चलाएँ: git lfs install फिर, "कोड" का उपयोग करके रेपो क्लोन करें, जीथब डेस्कटॉप में खोलें और निम्नलिखित कमांड चलाएं: git clone https://github.com/oculus-samples/Unity-FirstHand.git सभी वास्तविक प्रोजेक्ट फ़ाइलें एसेट्स → प्रोजेक्ट में हैं। इस फ़ोल्डर में इंटरेक्शन एसडीके को छोड़कर, नमूना चलाने के लिए सभी स्क्रिप्ट और संपत्तियां शामिल हैं। प्रोजेक्ट में इंटरेक्शन एसडीके सहित ओकुलस एसडीके का वी41 शामिल है। आप इंटरेक्शन एसडीके को [एसेट्स/ओकुलस/इंटरेक्शन] {एसेट्स/ओकुलस/इंटरेक्शन) में पा सकते हैं। सभी आवश्यक निर्भरताएँ स्थापित करने और क्वेस्ट डिवाइस पर चलने के लिए बिल्ड को कॉन्फ़िगर करने के बाद आपको अपने संपादक में ऊपर जैसा कुछ मिलेगा। बनाएं और चलाएं यदि आप Mac का उपयोग कर रहे हैं तो फ़ाइल → बिल्ड सेटिंग्स पर जाएँ। यदि आपने मेरी पिछली पोस्ट के निर्देशों का पालन किया है और अपना डिवाइस कनेक्ट किया है, तो नीचे आपको बिल्ड सेटिंग्स में देखना चाहिए। बिल्ड एंड रन पर क्लिक करें, यूनिटी को निर्माण करने के लिए कुछ मिनटों का समय दें और उन संदेशों की प्रतीक्षा करें जिन्हें आपका ऐप कनेक्टेड क्वेस्ट डिवाइस पर तैनात कर रहा है। अनुकूलन और परिवर्तन करना मैं दृढ़ता से सुझाव देता हूं कि आप इस उदाहरण के साथ खेलें और यह आंतरिक रूप से कैसे काम करता है यह जानने के लिए घटकों और स्क्रिप्ट को अनुकूलित करने का प्रयास करें, ताकि आप इसे अपने यूनिटी संपादक के प्रोजेक्ट अनुभाग में जाकर कर सकें और प्रोजेक्ट निर्देशिकाओं के पदानुक्रम का विस्तार कर सकें। हम लेज़रप्रोजेक्टाइल को अनुकूलित करेंगे: public class LazerProjectile : ActiveStateObserver { [SerializeField] Transform _target; [SerializeField] GameObject _effect; [SerializeField] float _rayCastDelay = 0.5f; [SerializeField] float _fadeOutTime = 0.1f; [SerializeField] float _delayBetweenShots = 0.5f; [SerializeField] AudioTrigger _chargeUp; [SerializeField, Optional] AudioTrigger _chargeUpComplete; protected override void Update() { base.Update(); Vector3 endPos = Vector3.Lerp(_target.position, transform.position + transform.forward * 20, 5 * Time.deltaTime); _target.position = endPos; } //...... } आइए रे कास्ट विलंब को बढ़ाएं और हेडसेट को बदलकर ऐप का परीक्षण करें float _rayCastDelay = 0.1f; को float _rayCastDelay = 0.5f; यहाँ दिया गया है कि यह कैसे काम करता है! इसे स्वयं आज़माएं और मुझे बताएं कि आप हैंड ट्रैकिंग का उपयोग करके क्या बनाना चाहते हैं।