Comme nous avons créé avec succès notre premier projet Unity ciblant l'appareil Quest 2 dans le post précédent, nous allons maintenant avoir un aperçu de l'un des ensembles de fonctionnalités les plus puissants fournis par Meta via Presence Platform.
La plate-forme de présence est conçue pour créer un sentiment de présence et d'interaction partagées dans les environnements de réalité virtuelle. Il permet aux gens de se connecter, d'interagir, de s'engager les uns avec les autres dans des espaces virtuels immersifs à l'aide de casques VR.
Les fonctionnalités et capacités de la plate-forme de présence de Meta incluent :
Comme vous pouvez le voir, Presence Platform est un ensemble complet de sous-systèmes/fonctionnalités, et je vais couvrir chacun d'eux en détail, mais pour commencer - commençons par le suivi manuel comme l'une des exigences de base pour le développement de jeux VR - nous allons configurer , créez et lancez un jeu de suivi des mains comme une expérience.
Un point de départ parfait est l'expérience Unity-FirstHand fournie par oculus-samples repo .
Encore une fois, veuillez vous référer au post précédent sur la configuration de l'environnement de développement et assurez-vous que diverses dépendances sont installées.
Assurez-vous que Git LFS est installé, exécutez cette commande :
git lfs install
Ensuite, clonez le référentiel à l'aide du "Code", en l'ouvrant dans le bureau Github et en exécutant la commande suivante :
git clone https://github.com/oculus-samples/Unity-FirstHand.git
Tous les fichiers de projet réels se trouvent dans Actifs → Projet. Ce dossier comprend tous les scripts et actifs pour exécuter l'exemple, à l'exception du SDK Interaction lui-même. Le projet inclut la v41 du SDK Oculus, y compris le SDK Interaction. Vous pouvez trouver le SDK Interaction dans [Assets/Oculus/Interaction]{Assets/Oculus/Interaction).
Après avoir installé toutes les dépendances requises et configuré la construction pour qu'elle s'exécute sur l'appareil Quest, vous obtiendrez quelque chose de similaire à ci-dessus dans votre éditeur.
Allez dans Fichier → Paramètres de construction si vous utilisez Mac.
Si vous avez suivi les instructions de mon message précédent et connecté votre appareil, voici ce que vous devriez voir dans les paramètres de construction.
Cliquez sur Construire et exécuter, laissez quelques minutes à Unity pour créer et attendre les messages que votre application déploie sur l'appareil Quest connecté.
Je vous suggère fortement de jouer avec cet exemple et d'essayer de personnaliser les composants et les scripts pour apprendre comment cela fonctionne en interne, pour pouvoir le faire, dirigez-vous vers la section Projet de votre éditeur Unity et développez la hiérarchie des répertoires de projet.
Nous allons personnaliser LazerProjectile :
public class LazerProjectile : ActiveStateObserver { [SerializeField] Transform _target; [SerializeField] GameObject _effect; [SerializeField] float _rayCastDelay = 0.5f; [SerializeField] float _fadeOutTime = 0.1f; [SerializeField] float _delayBetweenShots = 0.5f; [SerializeField] AudioTrigger _chargeUp; [SerializeField, Optional] AudioTrigger _chargeUpComplete; protected override void Update() { base.Update(); Vector3 endPos = Vector3.Lerp(_target.position, transform.position + transform.forward * 20, 5 * Time.deltaTime); _target.position = endPos; } //...... }
Augmentons le délai de diffusion de Ray et testons l'application sur le casque en remplaçant
float _rayCastDelay = 0.1f;
pour
float _rayCastDelay = 0.5f;
Voici comment cela fonctionne !
Essayez-le vous-même et faites-moi savoir ce que vous voulez construire en utilisant le suivi manuel.