Introducció Durant dues dècades, la nostra interacció amb el món digital s'ha limitat a una pantalla de 5 polzades i una única punta de dit.Però què passaria si poguéssim alliberar-nos d'aquestes limitacions i desbloquejar el ple espectre dels nostres sentits humans innats en la nostra informàtica diària? Els últims anys han assistit a una acceleració dramàtica en el desenvolupament de les tecnologies d'interfície humà-AI, posant els límits de com interactuem amb la intel·ligència artificial.Des de les tecnologies d'exhibició immersives fins als dispositius intuïtius i auxiliars amb capacitat d'IA ambiciosos, el paisatge és ric tant d'innovacions innovadores com de lliçons valuoses dels primers intents. Anuncis recents i jugadors clau: Meta Connect Announcements: Display Glass and Neuron Wristband L'esdeveniment anual Connect de Meta ha servit de plataforma per mostrar la seva visió a llarg termini de la realitat augmentada i virtual. La introducció de "Display Glass" suggereix un futur on la informació digital es barreja sense problemes amb el nostre món físic, probablement oferint sobrecàrregues contextuals i experiències interactives sense la majoria dels auriculars tradicionals. Complementant això és el "Neuron Wristband", suggerint un mètode d'entrada avançat que podria interpretar potencialment senyals neurals o gestos de mà subtils, oferint una manera més natural i menys intrusiva de controlar dispositius i interactuar amb la IA. Aquests desenvolupaments subratllen el compromís de Meta per construir el maquinari fonamental per a la metaversió, on la interacció humà-IA serà primordial Apple’s AirPods Pro with Live Translation L'enfocament iteratiu d'Apple envers la innovació sovint implica la integració de capacitats avançades d'IA en el seu ecosistema àmpliament adoptat.La funció "Traducció en viu" en AirPods Pro és un bon exemple d'això, aprofitant l'IA en dispositius i en el núvol per trencar les barreres lingüístiques en temps real. Això no només millora la comunicació, sinó que també demostra el potencial de l'IA per actuar com un interpretador personal i omnipresent, facilitant sense problemes les interaccions en un món globalitzat. Google’s Continued Effort in Smart Glasses Google té una llarga història amb ulleres intel·ligents, des de les ambicioses però finalment limitades Google Glass fins a solucions més recents enfocades a les empreses. El "esforç continuat" suggereix una creença persistent en el potencial de les pantalles amb capçalera com a interfície humà-IA. Les iteracions futures es centren probablement en factors de forma millorats, capacitats d'IA millorades per al lliurament d'informació contextual i una integració més robusta amb l'àmplia gamma de serveis de Google, incloent la cerca, els mapes i els assistents d'IA. OpenAI Acquires IO (Jony Ive) L'adquisició per part d'OpenAI de "IO", un col·lectiu de disseny liderat per l'exdirector de disseny d'Apple, Jony Ive, és un moviment estratègic important. Això indica un fort reconeixement dins de l'organització de recerca de la IA líder que la implementació física i l'experiència d'usuari dels sistemes d'IA són crucials per a la seva àmplia adopció i impacte. Aprenentatge dels primers esforços: Failed experiments? Human AI Pin and Rabbit R1 El El dispositiu va fallar en gran part a causa d'una combinació de deficiències tècniques, un punt de preu alt i una proposició de valor defectuosa. El dispositiu va ser criticat per ser lent, poc fiable i propens a sobreescalfament. La seva interfície principal, una pantalla projectada amb làser a la palma de l'usuari, es va trobar que era fina i difícil d'utilitzar en llum forta. Humane AI Pin A més, el preu de $ 699 i una tarifa de subscripció obligatòria de $ 24 / mes es van considerar exorbitants per a un dispositiu que no podia realitzar de manera fiable tasques bàsiques i mancava d'integració amb aplicacions i serveis comuns per a telèfons intel·ligents. El El fracàs de R1 es pot atribuir a la seva incapacitat per complir amb les seves promeses bàsiques i la seva falta fonamental de propòsit. El dispositiu va ser molt comercialitzat com una eina "Grand Model d'Acció" que podia controlar aplicacions i serveis en nom de l'usuari, però en el llançament, només va donar suport a un grapat d'aplicacions i va fracassar en moltes tasques bàsiques. Rabbit L'afirmació de la companyia que el seu dispositiu no era només una aplicació per a telèfons intel·ligents va ser minada quan es va revelar que tota la interfície funcionava en una sola aplicació Android, aixecant la pregunta de per què el maquinari dedicat era fins i tot necessari. la funcionalitat limitada del R1, combinada amb la seva incapacitat per competir amb les capacitats d'un telèfon intel·ligent modern, va portar a molts a concloure que era poc més que una joguina "molt cuita" que no justificava la seva existència. Mirant cap endavant en aquest article: L'evolució de les interfícies humà-IA és un camp dinàmic caracteritzat per la ràpida experimentació i el refinament continu.Com es manté al dia amb els últims desenvolupaments i es manté un pas per davant de la corba? En els capítols següents, començarem amb una profunda immersió en la interfície humà-máquina en el context de la IA. Això serà seguit per una anàlisi d'oportunitats per al futur HMI centrat en la IA, així com una visió general de 40 empreses categoritzades pels sentits que aborden. Interfície de màquina humana - un submarinisme profund Taula comparativa dels sentits humans per a HMI Sense Approx. Info Transfer Speed (bandwidth) Typical Latency (biological) Electronic Acquisition Difficulty Importance for HMI (why it matters) Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Observacions clau La visió domina l'amplada de banda, ordres de magnitud més alts que altres sentits, però també més fàcils de sobrecarregar (l'embotellament cognitiu a ~40-60 bps per a la lectura conscient/escolta). La latència té una importància diferent: els sentits vestibular i proprioceptiu són ràpids reflexos - la latència inferior a ~20 ms és essencial, en cas contrari es produeix malaltia de moviment / desencadenament. Adquisició electrònica: Fàcil: visió (càmeres) i audició (microscòpia) Medium: tàctil (arrels de sensors de pressió, actuadors àptics). Hard: vestibular (feedback impossible sense aparells invasius o rotatius), propriocepció (requereix sensori multimodal), olor/gust (químic). Importància de l’HMI: Core: visió, audició, toc, propriocepció i vestibular. Nínxol / emergent: olor, gust, intercepció, termocepció. Diferenciació crítica: entrada vs. sortida: podem sentir la visió i l'audició fàcilment, però lliurar feedback en tàctil / tàctil i vestibular és molt més difícil. Radar sensori HMI La visió domina en amplada de banda i importància, amb dificultats d'adquisició mitjanes. L'audició ofereix una excel·lent latència i una fàcil adquisició. Touch + Proprioception tenen una gran importància però són tècnicament difícils de digitalitzar. La sensibilitat vestibular és alta en la latència, però és molt difícil de reproduir electrònicament. L'olor i el gust es troben a la zona de baixa amplada de banda, alta dificultat i baixa importància (nici). La interrogació i la termocepció es troben entre ells, valuosos principalment per a la salut o per a la immersió. Mapa d'oportunitats Implicacions per a l'AI-HMI Design Interfícies AI Avui (a curt termini): la visió + l'audició dominen (ulleres AR, agents de veu), però el gest, el tacte, els micro-moviments són la nova frontera. Descobriments a curt termini: haptics (haptics neuronals d'aferència, guants HaptX), discurs silenciós (AlterEgo), mapes de propriocepció (IMU + EMG), trucs vestibulars (electroestimulació). A llarg termini: olor / gust / intercepció → altament nínxol però pot crear XR hiper-immersiva o companys d'IA conscients de la salut. Bottleneck: els humans no poden processar conscientment en cap lloc prop de la banda bruta sensorial - el disseny HMI ha de comprimir-se al que és útil, intuïtiu i de baixa latencia. Mapa d'oportunitats Bottom-left (Visió, Audició) → ample de banda, baixa dificultat d'adquisició → ja ben cobert, però les millores incrementals d'IA / UX són importants. Top-right (Vestibular, Proprioception, Touch) → alta amplada de banda / importància però difícil d'adquirir electrònicament → majors oportunitats d'innovació. Olor i gust → baixa amplada de banda, molt dur, baixa importància → només aplicacions de nínxol. Intercepció i Thermocepció → nínxol moderat, especialment per a HMI conscients de la salut o immersos. El “sweet spot” per a futures startups es troba en - la diferència més gran entre el valor potencial d'una maturació tecnològica actual. making hard-to-digitize senses (touch, balance, body sense) usable for AI interfaces Les millors oportunitats per a la innovació de HMI: He col·locat els sentits per (la diferència entre el seu potencial teòric i la puntuació d'oportunitat d'avui). Innovation Gap Visió: ja dominant, però encara deixa la major bretxa (compressió impulsada per la IA, semàntica i ampliació). Propriocepció: gran potencial però molt difícil de capturar; desbloquejar-lo podria transformar XR/robòtica. Tactil - alta recompensa si la tàtica electrònica i la detecció tàctil es milloren. Audició - fort avui però encara menys optimitzat (espai, multimodal, audició selectiva AI). Vestibular - crític per a la immersió, però segueix sent tècnicament difícil. 40 startups HMI prometedores per veure Aquí està un paisatge curat i actualitzat de les startups d'AI-hardware (HMI) per a l'era de la IA. Els vaig agrupar per modalitat d'interfície i vaig marcar la Em vaig centrar en els desenvolupaments de 2024-2025 i vaig incloure enllaços / citacions perquè puguis aprofundir més ràpidament. new human–machine interfaces form factor, what’s new, and stage En primer lloc, anem a fer un cop d'ull al paisatge d'inici d'AI HMI en termes d'ample de banda versus dificultat d'adquisició: 1) Entrades de parla silenciosa, neuronal / nerviosa i micro-gestures (no invasives) Startup Modality & Form Factor What’s new / why it matters Stage / Notes AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Early funding; working with XR & research labs. AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Silenci de sentit Axios Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth En boca Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News La meva notícia La meva notícia Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Això Això Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch WowMúsica Tecnològica Tecnològica App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Tàrrega.io Tàrrega.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Enginyeria interessant Enginyeria interessant Early funding; working with XR & research labs. 2) Neurotecnologia no invasiva / wearables quotidians BCI Startup Modality & Form Factor What’s new / why it matters Stage / Notes Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV ** Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Developer community growing. Raised a seed round in April 2025 Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Màster & Dinàmica Màster & Dinàmica Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Botiga OpenBCI Botiga OpenBCI Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV Emoció Emoció * El Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Muse: el cap del cervell sensori Muse: el cap del cervell sensori Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Cognició Cognició Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Càritas.com Càritas.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Tàrrega.ai Tàrrega.ai Developer community growing. Raised a seed round in April 2025 BCI mínimament invasiu i invasiu (clínic primer, consumidor després) Startup Modality & Form Factor What’s new / why it matters Stage / Notes Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Clinical research leader. acquired by Tether in April 2024 Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED WIRED WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED WIRED WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED WIRED WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Biodiversitat Biodiversitat Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Tracció Tracció Clinical research leader. acquired by Tether in April 2024 4) ulleres d'AR, wearables AI i ordinadors espacials (noves tovalloles UX) Startup Device What’s new / why it matters Stage / Notes Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Forbes Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide Guia de Tom Guia de Tom New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED WIRED WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless Sense límits Sense límits Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google 9to5Google 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED WIRED WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. Detecció d'ulls, cara i estat del conductor (afect-aware, context-aware UX) Startup Focus Why it matters Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR UploadVÍDEO UploadVÍDEO uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR UploadVÍDEO UploadVÍDEO 6) Quick Watchlist (emergent / adjacent) Wispr - primer programari, però explícitament llançant una interfície de veu-nativa per a l'era de la IA; aixecat per construir el "reemplaçament del teclat" amb l'edició d'IA. (Bona campana per a la veu com a UX primària.) (Wispr Flow) MindPortal — auriculars fNIRS “pensats a l’IA”; primerencs però notables. (mindportal.com) Ultraleap / Leap Motion legacy — pivot de seguiment a mà; consolidació de senyals en la categoria. (UploadVR) HaptX - guants haptics microfluïdics de classe industrial; robots d'entrenament / IA amb demostracions humanes riques. (HaptX) El camí endavant Aquest article explora el canvi de les HMI tradicionals basades en la pantalla a les interaccions multi-sensorials. Destaca els avenços de Meta, Apple, Google i OpenAI, juntament amb les lliçons d'experiments passats com Human Pin i Rabbit R1. Una anàlisi detallada dels sentits humans considera la transferència d'informació, la latència, la dificultat d'adquisició i la importància de HMI. El "HMI Opportunity Map" identifica les bretxes d'innovació en els sentits subdigitalitzats però crucials com el tacte i la propriocepció. A mesura que navegueu per aquestes noves fronteres, considereu com el vostre propi treball, investigació o inversió pot contribuir a crear interaccions d'IA més intuïtives, ètiques i veritablement centrades en l'ésser humà. us animem a explorar les startups destacades, aprofundir en la investigació citada i participar activament en el diàleg en curs sobre la formació d'un futur on la tecnologia augmenti sense problemes les capacitats humanes a través de tots els sentits.