Comme nous avons créé avec succès notre ciblant l'appareil Quest 2 dans le post précédent, nous allons maintenant avoir un aperçu de l'un des ensembles de fonctionnalités les plus puissants fournis par Meta via Presence Platform. premier projet Unity Qu'est-ce que la plateforme de présence de Meta ? La plate-forme de présence est pour créer un sentiment de présence et d'interaction partagées dans les environnements de réalité virtuelle. Il permet aux gens de se connecter, d'interagir, de s'engager les uns avec les autres dans des espaces virtuels immersifs à l'aide de casques VR. conçue Les fonctionnalités et capacités de la plate-forme de présence de Meta incluent : La plate-forme de présence permet aux utilisateurs de créer et de personnaliser leurs avatars numériques, qui les représentent dans le monde virtuel. Ces avatars peuvent imiter les mouvements, les expressions et les gestes réels des utilisateurs, améliorant ainsi le sentiment de présence et d'interaction sociale. Système d'avatar : les utilisateurs peuvent rencontrer et interagir avec des amis et d'autres personnes dans des environnements virtuels partagés. Ils peuvent participer à diverses activités ensemble, telles que jouer à des jeux, assister à des événements virtuels, regarder des vidéos, etc. Interaction sociale : la plate-forme intègre l'audio spatial, ce qui signifie que le son dans l'environnement virtuel est basé sur la localisation. Cela crée une expérience audio plus réaliste et immersive, car les utilisateurs peuvent entendre des sons provenant de directions spécifiques, tout comme dans le monde réel. Audio spatial : la plate-forme de présence prend en charge la technologie de suivi des mains, permettant aux utilisateurs d'utiliser leurs mains et leurs doigts directement en VR sans avoir besoin de contrôleurs. Cela rend les interactions plus naturelles et intuitives. Suivi des mains : forme est conçue pour fonctionner sur différents casques Oculus VR, permettant aux utilisateurs de différents appareils de se joindre et d'interagir les uns avec les autres de manière transparente. Prise en charge multiplateforme : La plate- pour les développeurs, la plate-forme Presence fournit des outils et des API pour créer et publier des applications, des jeux et des expériences de réalité virtuelle, permettant ainsi un écosystème florissant de contenu virtuel. Outils de création de contenu : Commencer avec le suivi manuel Comme vous pouvez le voir, Presence Platform est un ensemble complet de sous-systèmes/fonctionnalités, et je vais couvrir chacun d'eux en détail, mais pour commencer - commençons par le suivi manuel comme l'une des exigences de base pour le développement de jeux VR - nous allons configurer , créez et lancez un jeu de suivi des mains comme une expérience. Un point de départ parfait est l'expérience fournie par oculus-samples . Unity-FirstHand repo Encore une fois, veuillez vous référer au sur la configuration de l'environnement de développement et assurez-vous que diverses dépendances sont installées. post précédent Assurez-vous que Git LFS est installé, exécutez cette commande : git lfs install Ensuite, clonez le référentiel à l'aide du "Code", en l'ouvrant dans le bureau Github et en exécutant la commande suivante : git clone https://github.com/oculus-samples/Unity-FirstHand.git Tous les fichiers de projet réels se trouvent dans Actifs → Projet. Ce dossier comprend tous les scripts et actifs pour exécuter l'exemple, à l'exception du SDK Interaction lui-même. Le projet inclut la v41 du SDK Oculus, y compris le SDK Interaction. Vous pouvez trouver le SDK Interaction dans [Assets/Oculus/Interaction]{Assets/Oculus/Interaction). Après avoir installé toutes les dépendances requises et configuré la construction pour qu'elle s'exécute sur l'appareil Quest, vous obtiendrez quelque chose de similaire à ci-dessus dans votre éditeur. Construire et exécuter Allez dans Fichier → Paramètres de construction si vous utilisez Mac. Si vous avez suivi les instructions de mon message précédent et connecté votre appareil, voici ce que vous devriez voir dans les paramètres de construction. Cliquez sur Construire et exécuter, laissez quelques minutes à Unity pour créer et attendre les messages que votre application déploie sur l'appareil Quest connecté. Personnalisation et modifications Je vous suggère fortement de jouer avec cet exemple et d'essayer de personnaliser les composants et les scripts pour apprendre comment cela fonctionne en interne, pour pouvoir le faire, dirigez-vous vers la section Projet de votre éditeur Unity et développez la hiérarchie des répertoires de projet. Nous allons personnaliser LazerProjectile : public class LazerProjectile : ActiveStateObserver { [SerializeField] Transform _target; [SerializeField] GameObject _effect; [SerializeField] float _rayCastDelay = 0.5f; [SerializeField] float _fadeOutTime = 0.1f; [SerializeField] float _delayBetweenShots = 0.5f; [SerializeField] AudioTrigger _chargeUp; [SerializeField, Optional] AudioTrigger _chargeUpComplete; protected override void Update() { base.Update(); Vector3 endPos = Vector3.Lerp(_target.position, transform.position + transform.forward * 20, 5 * Time.deltaTime); _target.position = endPos; } //...... } Augmentons le délai de diffusion de Ray et testons l'application sur le casque en remplaçant float _rayCastDelay = 0.1f; pour float _rayCastDelay = 0.5f; Voici comment cela fonctionne ! Essayez-le vous-même et faites-moi savoir ce que vous voulez construire en utilisant le suivi manuel.