Introduzione Per due decenni, la nostra interazione con il mondo digitale è stata limitata a un semplice schermo da 5 pollici e una sola punta del dito.Ma cosa succede se potessimo liberarci di queste limitazioni e sbloccare l'intero spettro dei nostri sensi umani innati nel nostro computer quotidiano? Gli ultimi anni hanno visto un accelerazione drammatica nello sviluppo delle tecnologie di interfaccia umana-IA, spingendo i confini del modo in cui interagiamo con l'intelligenza artificiale.Dalle tecnologie di display immersive ai dispositivi indossabili intuitivi e agli ambiziosi assistenti alimentati da AI, il paesaggio è ricco di innovazioni all'avanguardia e di preziose lezioni dai primi tentativi. Recenti annunci e giocatori chiave: Meta Connect Announcements: Display Glass and Neuron Wristband L'evento annuale Connect di Meta ha costantemente servito come piattaforma per mostrare la loro visione a lungo termine per la realtà aumentata e virtuale. L'introduzione di "Display Glass" suggerisce un futuro in cui le informazioni digitali si fondono senza problemi con il nostro mondo fisico, offrendo probabilmente sovrapposizioni contestuali e esperienze interattive senza la maggior parte degli auricolari tradizionali. Complementando questo è il "Neuron Wristband", suggerendo un metodo di input avanzato che potrebbe potenzialmente interpretare i segnali neurali o gesti di mano sottili, offrendo un modo più naturale e meno intrusivo per controllare i dispositivi e interagire con l'IA. Questi sviluppi sottolineano l'impegno di Meta a costruire il hardware fondamentale per il metaverso, dove l'interazione um Apple’s AirPods Pro with Live Translation L'approccio iterativo di Apple all'innovazione comporta spesso l'integrazione di capacità avanzate di intelligenza artificiale nel loro ecosistema ampiamente adottato.La funzione "Live Translation" di AirPods Pro è un esempio di questo, sfruttando l'intelligenza artificiale on-device e cloud per rompere le barriere linguistiche in tempo reale.Questo non solo migliora la comunicazione, ma dimostra anche il potenziale per l'intelligenza artificiale di agire come un interprete personale e onnipresente, facilitando senza problemi le interazioni in un mondo globalizzato. Google’s Continued Effort in Smart Glasses Google ha una lunga storia con gli occhiali intelligenti, dall’ambizioso ma in ultima analisi limitato Google Glass alle più recenti soluzioni incentrate sull’impresa. Il “continuo sforzo” suggerisce una persistente convinzione nel potenziale dei display montati a testa come interfaccia umana-IA. Le future iterazioni si concentreranno probabilmente su fattori di forma migliorati, capacità AI migliorate per la fornitura di informazioni contestuali e una più robusta integrazione con la vasta gamma di servizi di Google, tra cui ricerca, mappe e assistenti AI. La sfida rimane nel trovare il giusto equilibrio tra utilità, accettazione sociale e privacy. OpenAI Acquires IO (Jony Ive) L’acquisizione da parte di OpenAI di “IO”, un gruppo di design guidato dall’ex Chief Design Officer di Apple Jony Ive, è un passo strategico significativo. Questo segnala un forte riconoscimento all’interno della principale organizzazione di ricerca AI che l’incarico fisico e l’esperienza utente dei sistemi AI sono cruciali per la loro diffusa adozione e impatto.Il leggendario focus di Ive sul design minimalista, le interfacce intuitive e la connessione emotiva con la tecnologia suggerisce che OpenAI non si concentra solo sullo sviluppo di potenti modelli di AI, ma anche sulla creazione di modi eleganti e centrati sull’uomo per le persone a interagire con loro, potenzialmente portando a nuove categorie di dispositivi e interfacce alimentati da AI. Imparare dai primi sforzi: Failed experiments? Human AI Pin and Rabbit R1 Il Il dispositivo ha fallito in gran parte a causa di una combinazione di difetti tecnici, un prezzo elevato e una proposizione di valore difettosa. Il dispositivo è stato criticato per essere lento, inaffidabile e incline al surriscaldamento. La sua interfaccia principale, uno schermo proiettato con laser sulla palma dell'utente, è stato trovato finito e difficile da usare in luce forte. Humane AI Pin Inoltre, il prezzo di $ 699 e una tassa di abbonamento obbligatoria di $ 24 / mese sono stati considerati eccessivi per un dispositivo che non poteva eseguire in modo affidabile i compiti di base e mancava l'integrazione con le applicazioni e i servizi comuni per smartphone. Il Il fallimento di R1 può essere attribuito alla sua incapacità di soddisfare le sue promesse fondamentali e la sua fondamentale mancanza di scopo. Il dispositivo è stato pesantemente commercializzato come uno strumento alimentato da "Grand Action Model" che poteva controllare le app e i servizi per conto dell'utente, ma al lancio, ha supportato solo una manciata di app e ha fallito in molte attività di base. Rabbit L'affermazione della società che il suo dispositivo non era solo un'app per smartphone è stata minata quando è stato rivelato che l'intera interfaccia funziona su una singola app Android, sollevando la domanda sul perché il hardware dedicato era anche necessario. la limitata funzionalità del R1, combinata con la sua incapacità di competere con le capacità di uno smartphone moderno, ha portato molti a concludere che era poco più di un giocattolo "semi-fatto" che non giustificava la sua esistenza. Guardando avanti in questo articolo: L’evoluzione delle interfacce umana-IA è un campo dinamico caratterizzato da una rapida sperimentazione e da un continuo raffinamento. Nei capitoli seguenti, inizieremo con una profonda immersione nell'interfaccia uomo-macchina nel contesto dell'IA. Questo sarà seguito da un'analisi delle opportunità per il futuro HMI incentrato sull'IA, nonché una panoramica di 40 aziende categorizzate dai sensi a cui si rivolge. Interfaccia di macchina umana - una immersione profonda Tabella comparativa dei sensi umani per HMI Sense Approx. Info Transfer Speed (bandwidth) Typical Latency (biological) Electronic Acquisition Difficulty Importance for HMI (why it matters) Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Osservazioni chiave La visione domina la larghezza di banda – ordini di magnitudo più alti rispetto agli altri sensi, ma anche più facili da sovraccaricare (limito cognitivo a ~40-60 bps per la lettura consapevole / ascolto). La latenza conta in modo diverso: i sensi vestibolari e proprioceptivi sono riflessi rapidi – la latenza inferiore a ~20 ms è essenziale, altrimenti si verifica malattia di movimento / discarica. Acquisizione elettronica : Facile: visione (camere) e udito (micchi) Medium: tocco (raggi di sensori di pressione, attuatori haptici). Duro: vestibolare (feedback impossibile senza righe invasive o rotanti), proprioception (richiede sensazione multimodale), odore / gusto (chimico). L’importanza di HMI: Core: visione, udito, tocco, propriocepzione, vestibolare Niche / emergenti: odore, sapore, interocezione, termocezione. Differenza critica: input vs output – possiamo percepire la vista e l’udito facilmente, ma fornire feedback in touch/haptics & vestibolare è molto più difficile. Radar sensoriale HMI La visione domina la larghezza di banda e l'importanza, con difficoltà di acquisizione medie. L'udito offre ottima latenza e facile acquisizione. Touch + Proprioception sono di grande importanza, ma tecnicamente difficili da digitalizzare. Vestibulare punteggio alto sulla sensibilità alla latenza, ma è molto difficile da riprodurre elettronicamente. Smell & Taste si trova all'angolo di bassa larghezza di banda, alta difficoltà, bassa importanza (niche). Interoception & Thermoception cadono tra loro - preziosi principalmente per la salute o il feedback immersivo. Mappa delle opportunità Implicazioni per l’AI-HMI Design Interfacce AI Oggi (a breve termine): la visione + l'udito dominano (occhiali AR, agenti vocali), ma il gesto, il tatto, i micro-movimenti sono la nuova frontiera. Scoperte a breve termine: haptici (aptici neurali di afferenza, guanti HaptX), silent-speech (AlterEgo), mapping proprioception (IMU + EMG), trucchi vestibolari (elettro-stimolazione). A lungo termine: odore/gusto/interocezione → altamente nischio ma può creare XR iper-immersivo o compagni di intelligenza artificiale consapevoli della salute. Bottleneck: gli esseri umani non possono consapevolmente elaborare ovunque vicino alla larghezza di banda bruta sensoriale – il design HMI deve comprimere ciò che è utile, intuitivo e a bassa latenza. Mappa delle opportunità Bottom-left (Vision, Hearing) → alta larghezza di banda, bassa difficoltà di acquisizione → già ben coperta, ma miglioramenti incrementali AI / UX importano. Top-right (Vestibular, Proprioception, Touch) → alta larghezza di banda/importanza ma difficile da acquisire elettronicamente → maggiori opportunità di innovazione. Smell & Taste → bassa larghezza di banda, molto dura, bassa importanza → applicazioni di nicchia solo. Interoception & Thermoception → nicchia moderata, specialmente per HMI consapevoli della salute o immersivi. Il “sweet spot” per le future start-up si trova in - il più grande divario tra il valore potenziale e la maturità attuale della tecnologia. making hard-to-digitize senses (touch, balance, body sense) usable for AI interfaces Le maggiori opportunità sottoservite per l'innovazione HMI: Ho inserito i sensi per (la differenza tra il loro potenziale teorico e il punteggio di opportunità di oggi). Innovation Gap Visione – già dominante, ma lascia ancora il più grande divario (compressione guidata da AI, semantica e amplificazione). Proprioception - enorme potenziale ma molto difficile da catturare; sbloccare potrebbe trasformare XR / robotica. Touch - alta ricompensa se l'aptica elettronica e il sensore tattico migliorano. L’udito – forte oggi ma ancora sotto-ottimizzato (spaziale, multimodale, AI dell’udito selettivo). Vestibolare - critico per l'immersione, ma rimane tecnicamente difficile. 40 start-up HMI promettenti da guardare Ecco un paesaggio curato e aggiornato della costruzione di startup AI-hardware (HMI) per l'era AI. Li ho raggruppati per modalità di interfaccia e segnato il Mi sono concentrato sugli sviluppi del 2024-2025 e ho incluso link / citazioni in modo che tu possa scavare più in profondità rapidamente. new human–machine interfaces form factor, what’s new, and stage Prima di tutto, diamo un'occhiata al paesaggio di startup AI HMI in termini di larghezza di banda vs difficoltà di acquisizione: 1) Ingresso silenzioso, neurale/nervo e micro-gesti (non invasivo) Startup Modality & Form Factor What’s new / why it matters Stage / Notes AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Early funding; working with XR & research labs. AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios silenzio senso Axiali Axiali Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth In bocca Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News La mia notizia La mia notizia Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Questo Questo Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch WOWMOUSE di TechCrunch di TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Sviluppo.io Sviluppo.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Ingegneria interessante Ingegneria interessante Early funding; working with XR & research labs. 2) Neurotecnologia non invasiva / indossabili quotidiani BCI Startup Modality & Form Factor What’s new / why it matters Stage / Notes Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV ** Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Developer community growing. Raised a seed round in April 2025 Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Maestro e dinamico Maestro e dinamico Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Appartamento OpenBCI Appartamento OpenBCI Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV Emozioni Emozioni * di Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Muse: il cervello sensore del headband Muse: il cervello sensore del headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Cognizione Cognizione Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com di Mindportal.com di Mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Nessuno.ai Nessuno.ai Developer community growing. Raised a seed round in April 2025 3) BCI minimamente invasivo e invasivo (clinico prima, consumatore dopo) Startup Modality & Form Factor What’s new / why it matters Stage / Notes Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Clinical research leader. acquired by Tether in April 2024 Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED di WIRED di WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED di WIRED di WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED di WIRED di WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Biodiversità Biodiversità Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn traccia traccia Clinical research leader. acquired by Tether in April 2024 4) Occhiali AR, wearables AI e computer spaziali (nuovi panni UX) Startup Device What’s new / why it matters Stage / Notes Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes di Forbes di Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide La guida di Tom La guida di Tom New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED di WIRED di WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless illimitato illimitato Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google 9to5Google 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED di WIRED di WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. 5) Eye-, face- & driver-state sensing (affetto-consapevole, contesto-consapevole UX) Startup Focus Why it matters Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR UploadVR UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR UploadVR UploadVR 6) Quick Watchlist (emergente / adiacente) Wispr - software-primo ma esplicitamente lanciando un'interfaccia vocale-nativo per l'era dell'IA; sollevato per costruire la "sostituzione del tastierino" con l'editing AI. (Buon bellwether per voice-as-primary UX.) (Wispr Flow) MindPortal – cuffie fNIRS “pensiero-to-AI”; precoce ma notevole. (mindportal.com) Ultraleap / Leap Motion legacy — pivot di tracciamento a mano; consolidamento dei segnali nella categoria. (UploadVR) HaptX - guanti haptici microfluidici di livello industriale; robot di addestramento / AI con ricche dimostrazioni umane. (HaptX) La strada in avanti Questo articolo esplora il passaggio dai tradizionali HMI basati sullo schermo alle interazioni multi-sensoriali. sottolinea i progressi realizzati da Meta, Apple, Google e OpenAI, assieme alle lezioni tratte da esperimenti passati come Human Pin e Rabbit R1. Un'analisi dettagliata dei sensi umani considera il trasferimento di informazioni, la latenza, la difficoltà di acquisizione e l'importanza dell'HMI. La "HMI Opportunity Map" identifica lacune di innovazione nei sensi sottodigitalizzati ma cruciali come il touch e la proprioception. Mentre navighi in queste nuove frontiere, considera come il tuo lavoro, la ricerca o gli investimenti possano contribuire a creare interazioni AI più intuitive, etiche e veramente incentrate sull'uomo.Vi incoraggiamo ad esplorare le start-up evidenziate, a approfondire la ricerca citata e ad impegnarvi attivamente nel dialogo in corso per plasmare un futuro in cui la tecnologia aumenta senza problemi le capacità umane in tutti i sensi.