paint-brush
Primeros pasos con Presence Platform Interaction SDK: Seguimiento manualpor@shiaart
24,199 lecturas
24,199 lecturas

Primeros pasos con Presence Platform Interaction SDK: Seguimiento manual

por Artem Shiabutdinov4m2023/07/31
Read on Terminal Reader

Demasiado Largo; Para Leer

Presence Platform está diseñado para crear una sensación de presencia compartida e interacción en entornos de realidad virtual. Permite que las personas se conecten, interactúen y se comprometan entre sí en espacios virtuales inmersivos utilizando auriculares VR. El seguimiento de manos es uno de los requisitos básicos para el desarrollo de juegos de realidad virtual: configuraremos, construiremos y lanzaremos una experiencia similar a un juego de seguimiento de manos.
featured image - Primeros pasos con Presence Platform Interaction SDK: Seguimiento manual
Artem Shiabutdinov HackerNoon profile picture
0-item
1-item
2-item

Como creamos con éxito nuestro primer proyecto de Unity dirigido al dispositivo Quest 2 en la publicación anterior, ahora obtendremos información sobre uno de los conjuntos de capacidades más potentes proporcionados por Meta a través de Presence Platform.

¿Qué es la Plataforma de Presencia de Meta?

La plataforma de presencia está diseñada para crear una sensación de presencia compartida e interacción en entornos de realidad virtual. Permite que las personas se conecten, interactúen y se comprometan entre sí en espacios virtuales inmersivos utilizando auriculares VR.


Las características y capacidades de la plataforma de presencia de Meta incluyen:


  1. Sistema Avatar: La Plataforma de Presencia permite a los usuarios crear y personalizar sus avatares digitales, que los representan en el mundo virtual. Estos avatares pueden imitar los movimientos, expresiones y gestos de la vida real de los usuarios, mejorando la sensación de presencia e interacción social.
  2. Interacción social: los usuarios pueden reunirse e interactuar con amigos y otras personas en entornos virtuales compartidos. Pueden participar en varias actividades juntos, como jugar juegos, asistir a eventos virtuales, mirar videos y más.
  3. Audio espacial: la plataforma incorpora audio espacial, lo que significa que el sonido en el entorno virtual se basa en la ubicación. Esto crea una experiencia de audio más realista e inmersiva, ya que los usuarios pueden escuchar sonidos provenientes de direcciones específicas, como en el mundo real.
  4. Seguimiento de manos: la plataforma de presencia es compatible con la tecnología de seguimiento de manos, lo que permite a los usuarios usar sus manos y dedos directamente en la realidad virtual sin necesidad de controladores. Esto hace que las interacciones sean más naturales e intuitivas.
  5. Compatibilidad multiplataforma: la plataforma está diseñada para funcionar en diferentes visores Oculus VR, lo que permite a los usuarios con diferentes dispositivos unirse e interactuar entre ellos sin problemas.
  6. Herramientas de creación de contenido: para los desarrolladores, la plataforma Presence proporciona herramientas y API para crear y publicar aplicaciones, juegos y experiencias de realidad virtual, lo que permite un ecosistema próspero de contenido virtual.


Comenzando con el seguimiento de la mano

Como puede ver, Presence Platform es un conjunto integral de subsistemas/características, y cubriré cada uno de ellos en detalle, pero para comenzar, comencemos con el seguimiento de manos como uno de los requisitos básicos para el desarrollo de juegos de realidad virtual: configuraremos , crea y lanza un juego de seguimiento de manos como experiencia.


https://docs.unity3d.com/


Un punto de partida perfecto es la experiencia de Unity-FirstHand proporcionada por oculus-samples repo .

Nuevamente, consulte la publicación anterior sobre la configuración del entorno de desarrollo y asegúrese de que se hayan instalado varias dependencias.


Asegúrese de tener Git LFS instalado, ejecute este comando:

 git lfs install


Luego, clone el repositorio usando el "Código", abriéndolo en el escritorio de Github y ejecutando el siguiente comando:

 git clone https://github.com/oculus-samples/Unity-FirstHand.git


Todos los archivos del proyecto real están en Activos → Proyecto. Esta carpeta incluye todos los scripts y activos para ejecutar la muestra, excepto Interaction SDK. El proyecto incluye v41 de Oculus SDK, incluido Interaction SDK. Puede encontrar Interaction SDK en [Activos/Oculus/Interacción]{Activos/Oculus/Interacción).


FirstHand en Unity Editor


Después de instalar todas las dependencias requeridas y configurar la compilación para que se ejecute en el dispositivo Quest, obtendrá algo similar a lo anterior en su editor.


Construir y ejecutar

Vaya a Archivo → Configuración de compilación si está usando Mac.

Si siguió las instrucciones de mi publicación anterior y conectó su dispositivo, a continuación se muestra lo que debería ver en Configuración de compilación.

Configuración de compilación y ejecución

Haga clic en Build and Run, espere unos minutos para que Unity cree y espere los mensajes que su aplicación está implementando en el dispositivo Quest conectado.


Experiencia de carrera

Personalización y realización de cambios.

Le sugiero enfáticamente que juegue con este ejemplo e intente personalizar componentes y scripts para aprender cómo funciona internamente, para poder hacerlo, diríjase a la sección Proyecto de su editor de Unity y expanda la jerarquía de directorios del proyecto.


Personalizaremos LazerProjectile:


Estructura del proyecto

 public class LazerProjectile : ActiveStateObserver { [SerializeField] Transform _target; [SerializeField] GameObject _effect; [SerializeField] float _rayCastDelay = 0.5f; [SerializeField] float _fadeOutTime = 0.1f; [SerializeField] float _delayBetweenShots = 0.5f; [SerializeField] AudioTrigger _chargeUp; [SerializeField, Optional] AudioTrigger _chargeUpComplete; protected override void Update() { base.Update(); Vector3 endPos = Vector3.Lerp(_target.position, transform.position + transform.forward * 20, 5 * Time.deltaTime); _target.position = endPos; } //...... }


Aumentemos el retraso de Ray Cast y probemos la aplicación en los auriculares reemplazando


 float _rayCastDelay = 0.1f;

a

 float _rayCastDelay = 0.5f;


¡Así es como funciona!

Manifestación


Pruébelo usted mismo y hágame saber lo que quiere construir usando el seguimiento manual.