Introducción Durante dos décadas, nuestra interacción con el mundo digital se ha limitado a una simple pantalla de 5 pulgadas y una única punta de dedo. pero ¿y si pudiéramos liberarnos de estas limitaciones y desbloquear el espectro completo de nuestros sentidos humanos innatos en nuestra computación diaria? Los últimos años han sido testigos de una aceleración dramática en el desarrollo de las tecnologías de interfaz humano-IA, empujando los límites de cómo interactúamos con la inteligencia artificial.De las tecnologías de pantalla inmersivas a los dispositivos intuitivos y a los ambiciosos asistentes alimentados por la IA, el paisaje es rico tanto en innovaciones revolucionarias como en valiosas lecciones de los primeros intentos. Anuncios recientes y jugadores clave: Meta Connect Announcements: Display Glass and Neuron Wristband El evento anual de Connect de Meta ha servido consistentemente como una plataforma para mostrar su visión a largo plazo de la realidad aumentada y virtual. La introducción de “Display Glass” sugiere un futuro donde la información digital se mezcla sin problemas con nuestro mundo físico, probablemente ofreciendo superficies contextuales e experiencias interactivas sin la mayor parte de los auriculares tradicionales. Complementando esto es el “Neuron Wristband”, lo que sugiere un método de entrada avanzado que podría interpretar señales neuronales o gestos de mano sutiles, ofreciendo una forma más natural y menos intrusiva de controlar dispositivos e interactuar con la IA. Estos desarrollos subrayan el compromiso de Meta para construir el hardware fundamental para el metaverso, donde la interacción humano-IA será primordial. Apple’s AirPods Pro with Live Translation El enfoque iterativo de Apple para la innovación a menudo implica la integración de capacidades avanzadas de IA en su ecosistema ampliamente adoptado.La característica de “Traducción en vivo” en AirPods Pro es un ejemplo de esto, aprovechando la IA en dispositivos y en la nube para romper las barreras del lenguaje en tiempo real. Esto no solo mejora la comunicación sino que también demuestra el potencial para que la IA actúe como un intérprete personal, omnipresente, facilitando sin problemas las interacciones en un mundo globalizado. Google’s Continued Effort in Smart Glasses Google tiene una larga historia con gafas inteligentes, desde el ambicioso pero en última instancia limitado Google Glass a las soluciones más recientes enfocadas a las empresas. El “esfuerzo continuo” sugiere una creencia persistente en el potencial de las pantallas montadas en la cabeza como una interfaz humano-IA. Las iteraciones futuras probablemente se centren en factores de forma mejorados, capacidades de IA mejoradas para la entrega de información contextual y una integración más robusta con la amplia gama de servicios de Google, incluyendo búsqueda, mapas y asistentes de IA. El desafío sigue siendo encontrar el equilibrio correcto entre utilidad, aceptación social y privacidad. OpenAI Acquires IO (Jony Ive) La adquisición por parte de OpenAI de “IO”, un colectivo de diseño liderado por el ex jefe de diseño de Apple, Jony Ive, es un movimiento estratégico significativo.Esto señala un fuerte reconocimiento dentro de la organización líder de investigación de IA de que la implementación física y la experiencia del usuario de los sistemas de IA son cruciales para su amplia adopción y impacto.El legendario enfoque de Ive en el diseño minimalista, las interfaces intuitivas y la conexión emocional con la tecnología sugiere que OpenAI no solo se centra en desarrollar modelos de IA poderosos, sino también en diseñar formas elegantes y centradas en el hombre para que las personas interactúen con ellos, lo que potencialmente conduce a nuevas categorías de dispositivos e interfaces alimentados por IA. Aprender de los primeros esfuerzos: Failed experiments? Human AI Pin and Rabbit R1 El El dispositivo falló en gran parte debido a una combinación de deficiencias técnicas, un punto de precio alto y una proposición de valor defectuosa. El dispositivo fue criticado por ser lento, poco fiable y propenso a sobrecalentarse. Su interfaz principal, una pantalla proyectada por láser en la palma del usuario, se encontró con un aspecto sutil y difícil de usar en luz fuerte. Humane AI Pin Además, el precio de 699 dólares y una tarifa de suscripción obligatoria de 24 dólares al mes se consideraron exorbitantes para un dispositivo que no podía realizar de forma fiable tareas básicas y carecía de integración con aplicaciones y servicios de teléfonos inteligentes comunes. El El fracaso de R1 se puede atribuir a su incapacidad para cumplir con sus promesas básicas y su falta fundamental de propósito. El dispositivo se comercializó fuertemente como una herramienta impulsada por un “Grandes Modelos de Acción” que podía controlar aplicaciones y servicios en nombre del usuario, pero en el lanzamiento, solo soportaba un puñado de aplicaciones y falló en muchas tareas básicas. Rabbit La afirmación de la compañía de que su dispositivo no era sólo una aplicación para teléfonos inteligentes fue socavada cuando se reveló que la interfaz entera funcionaba en una sola aplicación Android, planteando la pregunta de por qué el hardware dedicado era incluso necesario.La funcionalidad limitada del R1, combinada con su incapacidad para competir con las capacidades de un teléfono inteligente moderno, llevó a muchos a concluir que era poco más que un juguete “semipacado” que no justificaba su existencia. Mirando hacia adelante en este artículo: La evolución de las interfaces humano-IA es un campo dinámico caracterizado por la experimentación rápida y el refinamiento continuo. ¿Cómo se mantiene al día con los últimos desarrollos y se mantiene un paso por delante de la curva? En los siguientes capítulos, comenzaremos con una profunda inmersión en la interfaz humano-máquina en el contexto de la IA. Esto será seguido por un análisis de oportunidades para el futuro HMI centrado en la IA, así como una visión general de 40 empresas categorizadas por los sentidos a los que se dirigen. Interfaz de Máquina Humana - un buceo profundo Tabla comparativa de los sentidos humanos para HMI Sense Approx. Info Transfer Speed (bandwidth) Typical Latency (biological) Electronic Acquisition Difficulty Importance for HMI (why it matters) Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Key Observations La visión domina el ancho de banda —ordenes de magnitud más altos que otros sentidos, pero también más fáciles de sobrecargar (bloqueo cognitivo a ~40–60 bps para la lectura / escucha consciente). : vestibular & proprioception are — latency below ~20 ms is essential, otherwise motion sickness / disembodiment occurs. Vision tolerates 50–100 ms in UX. Latency matters differently fast reflexive senses Adquisición electrónica: Fácil: la visión (cámaras) y la audición (micros). Medium: toque (rayas de sensores de presión, actuadores hapticos). Hard: vestibular (feedback imposible sin rigs invasivos o rotativos), propriocepción (requiere detección multimodal), olor / sabor (químico). Importancia del HMI: Núcleo: visión, audición, tacto, propiocepción y vestibular. Niche / emergente: olor, sabor, intercepción, termocepción. Diferencia crítica: la entrada vs. la salida: podemos sentir la visión y la audición fácilmente, pero la entrega de retroalimentación en el tacto y el vestibular es mucho más difícil. HMI Sensorium radar La visión domina en ancho de banda e importancia, con dificultad de adquisición media. La audición ofrece una excelente latencia y fácil adquisición. Touch + Proprioception tienen gran importancia pero son técnicamente difíciles de digitalizar. La sensibilidad vestibular es alta en la latencia, pero es muy difícil de reproducir electrónicamente. Smell & Taste se sitúa en el ángulo de baja anchura de banda, alta dificultad, baja importancia (níquel). La interrogación y la termocesión se encuentran entre sí, valiosos principalmente para la salud o el feedback inmersivo. HMI opportunity map Implicaciones para el diseño AI-HMI Interfaces de IA Hoy (a corto plazo): la visión + la audición dominan (brillas de AR, agentes de voz), pero el gesto, el tacto, los micro-movimientos son la nueva frontera. Descubrimientos a corto plazo: hapticas (ápticas neuronales de aferencia, guantes HaptX), discurso silencioso (AlterEgo), mapeo de propriocepción (IMU + EMG), trucos vestibulares (electroestimulación). A largo plazo: olor / sabor / intercepción → altamente nicho pero puede crear XR hiper-immersivo o compañeros de IA conscientes de la salud. Bottleneck: los humanos no pueden procesar conscientemente en ningún lugar cerca del ancho de banda sensorial crudo - el diseño de HMI debe comprimirse para lo que es útil, intuitivo y de baja latencia. Mapa de Oportunidades Bottom-left (Visión, Audiencia) → alta anchura de banda, baja dificultad de adquisición → ya bien cubierta, pero las mejoras incrementales de IA / UX son importantes. Top-right (Vestibular, Proprioception, Touch) → alto ancho de banda / importancia pero difícil de adquirir electrónicamente → mayores oportunidades de innovación. Olor y sabor → bajo ancho de banda, muy duro, baja importancia → aplicaciones de nicho sólo. Interoception & Thermoception → nicho moderado, especialmente para HMIs conscientes de la salud o inmersivos. El “Sweet Spot” para futuras startups se encuentra en — biggest gap between potential value an`d current tech maturity. making hard-to-digitize senses (touch, balance, body sense) usable for AI interfaces Las mayores oportunidades de desempleo para la innovación de HMI: He recogido los sentidos por (la diferencia entre su potencial teórico y la puntuación de oportunidad actual). Innovation Gap Visión — ya dominante, pero todavía deja la mayor brecha (compresión impulsada por la IA, semántica y ampliación). Propriocepción – enorme potencial pero muy difícil de capturar; desbloquearlo podría transformar la XR / robótica. Touch – alta rentabilidad si se mejora la haptica electrónica y la detección táctil. Escucha - fuerte hoy en día, pero todavía suboptimizada (IA de escucha espacial, multimodal, selectiva). — critical for immersion, but remains technically difficult. Vestibular 40 startups de HMI prometedoras para ver Aquí está un paisaje curado y actualizado de la construcción de startups de hardware de IA (HMI) para la era de la IA. los agrupé por modalidad de interfaz y Me centré en los desarrollos de 2024-2025 e incluí enlaces / citas para que puedas profundizar más rápido. new human–machine interfaces form factor, what’s new, and stage Primero, echemos un vistazo al paisaje de la startup de AI HMI en términos de ancho de banda vs dificultad de adquisición: 1) Entradas de habla silenciosa, neuronal/nerviosa y micro-gesturas (no invasivas) Startup Modality & Form Factor What’s new / why it matters Stage / Notes AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Early funding; working with XR & research labs. AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Sentido silencioso Axios Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth in-mouth Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News Mi Noticias Mi Noticias Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES CES CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch WowMouse TechCrunch TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Encuentro.io Encuentro.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Interesante ingeniería Interesting Engineering Early funding; working with XR & research labs. 2) Neurotecnología no invasiva / wearables BCI cotidianos Startup Modality & Form Factor What’s new / why it matters Stage / Notes Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV ** Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Developer community growing. Raised a seed round in April 2025 Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Maestro y dinámico Master & Dynamic Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Tienda abierta Tienda abierta Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV Emociones EMOTIV * El Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Muse: el cerebro que detecta el headband Muse: el cerebro que detecta el headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Cognición Cognición Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Página de Mindportal.com Página de Mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Encuentro.es Encuentro.es Developer community growing. Raised a seed round in April 2025 3) BCI mínimamente invasivo e invasivo (clínico primero, consumidor después) Startup Modality & Form Factor What’s new / why it matters Stage / Notes Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Clinical research leader. acquired by Tether in April 2024 Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED WIRED WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED WIRED WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED WIRED WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Biodiversidad Biodiversidad Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Tracxón Tracxón Clinical research leader. acquired by Tether in April 2024 4) gafas AR, wearables de IA y ordenadores espaciales (nuevas telas UX) Startup Device What’s new / why it matters Stage / Notes Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Forbes Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide Guía de Tom Guía de Tom New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED WIRED WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless ilimitados ilimitados Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google 9to5Google 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED WIRED WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. 5) Detección del ojo, del rostro y del estado del conductor (afect-aware, context-aware UX) Startup Focus Why it matters Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR UploadVR UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR UploadVR UploadVR 6) Quick Watchlist (emergente / adyacente) Wispr — primer software, pero explícitamente lanzando una interfaz nativa de voz para la era de la IA; levantado para construir el “reemplazo de teclado” con la edición de IA. (Buen campanario para UX de voz como primaria.) (Wispr Flow) MindPortal — auriculares fNIRS “pensado en AI”; temprano pero notable. (mindportal.com) Ultraleap / Leap Motion legacy — pivot de seguimiento manual; consolidación de señales en la categoría. (UploadVR) HaptX - Guantes hapticos microfluídicos de clase industrial; robots de entrenamiento / AI con demostraciones humanas ricas. (HaptX) El camino hacia adelante Este artículo explora el cambio de los HMI tradicionales basados en la pantalla a las interacciones multi-sensoriales. Destaca los avances de Meta, Apple, Google y OpenAI, junto con las lecciones de experimentos pasados como Human Pin y Rabbit R1. Un análisis detallado de los sentidos humanos considera la transferencia de información, la latencia, la dificultad de adquisición y la importancia de HMI. El “HMI Opportunity Map” identifica las lagunas de innovación en los sentidos subdigitalizados pero cruciales como el toque y la propriocepción. Al navegar por estas nuevas fronteras, considere cómo su propio trabajo, investigación o inversión pueden contribuir a crear interacciones de IA más intuitivas, éticas y verdaderamente centradas en el ser humano.Le alentamos a explorar las startups destacadas, profundizar en la investigación citada y participar activamente en el diálogo en curso sobre la formación de un futuro donde la tecnología aumente suavemente las capacidades humanas en todos los sentidos.