導入 数十年間、デジタル世界とのコミュニケーションは、たった5インチの画面と一本の指先に限定されてきましたが、これらの限界から解放され、私たちの日常のコンピューティングで私たちの生まれつきの人間の感覚の全スペクトルを解き放つことができたらどうでしょうか。 過去数年間は、人間とAIのインターフェイス技術の開発が劇的に加速し、私たちが人工知能とどのように相互作用するかの限界を押し下げてきました。 最近の発表とキープレーヤー: Meta Connect Announcements: Display Glass and Neuron Wristband 「ディスプレイグラス」の導入は、デジタル情報が私たちの物理世界とシームレスに融合する未来を示唆し、従来のヘッドセットの大半なしに文脈的表面化とインタラクティブな経験を提供する可能性があります。これを補完する「ニューロン・ブレスレット」は、神経信号や微妙な手の手の手の手の手の手の手の手の手の手の手の手の手を解釈する可能性のある高度な入力方法を示唆し、デバイスを制御し、AIと相互作用するためのより自然で不具合な方法を提供します。これらの発展は、メタのメタアバースのための基礎的なハードウェアを構築するというコミットメントを強調します。 Apple’s AirPods Pro with Live Translation Appleのイテラティブなイノベーションアプローチは、高度なAI機能を広く採用されたエコシステムに統合することを含みます。AirPods Proの「Live Translation」機能は、デバイスやクラウドのAIを活用して、リアルタイムで言語の障壁を打ち破ることに最適な例です。これは、コミュニケーションを強化するだけでなく、AIがグローバル化された世界での相互作用をシームレスに促進し、個人的で普遍的な通訳として機能する可能性を示しています。 Google’s Continued Effort in Smart Glasses Googleは、野心的なが最終的には限られたGoogle Glassから、より最近の企業向けソリューションに至るまで、スマートメガネの長い歴史を持っています。この「継続的な努力」は、ヘッドマウントディスプレイが人間とAIのインターフェイスとして潜在的な可能性を信じていることを示唆しています。将来のイテレーションは、形態要因の向上、文脈的な情報配信のためのAI能力の向上、および検索、マップ、AIアシスタントを含むGoogleの幅広いサービスとのより強力な統合に焦点を当てる可能性があります。 OpenAI Acquires IO (Jony Ive) 元Apple Chief Design Officer Jony Iveが率いるデザインコレクティブ「IO」のOpenAIの買収は重要な戦略的動きです。これは、AIのシステムの物理的実装とユーザー体験が広範囲に採用され、影響を及ぼすために重要であるという主要なAI研究機関内の強力な認識を示しています。Iveのミニマリズム的なデザイン、直感的なインターフェイス、およびテクノロジーとの感情的なつながりへの伝説的な焦点は、OpenAIが強力なAIモデルの開発に焦点を当てているだけでなく、人々がそれらと相互作用するためのエレガントで人間中心的な方法を作成することに焦点を当てていることを示しています。 早期の努力から学ぶ: Failed experiments? Human AI Pin and Rabbit R1 THE 技術的な欠点、高価格ポイント、および欠陥の価値提案の組み合わせにより、ほとんどが失敗しました。このデバイスは、遅く、信頼性が低く、過熱の可能性があるため批判されました。その主なインターフェイス、ユーザーの手のひらにレーザープロジェクトされたスクリーンは、明るい光で使用することが困難であることが判明しました。 Humane AI Pin さらに、699ドルの価格と24ドル/月の必須サブスクリプション料は、基本的なタスクを信頼できるように実行できず、一般的なスマートフォンアプリケーションやサービスとの統合が欠けているデバイスにとって過剰なものとみなされました。 THE R1の失敗は、そのコアの約束を果たすことができず、根本的な目的の欠如に起因します。デバイスは、ユーザーの代わりにアプリやサービスを制御することができる「大きなアクションモデル」で動作するツールとして大幅にマーケティングされましたが、立ち上げ時には、数少ないアプリをサポートし、多くの基本的なタスクに失敗しました。 Rabbit 同社のデバイスが単なるスマートフォンアプリではないという主張は、すべてのインターフェイスが単一のAndroidアプリで実行されていることが明らかになったとき、破綻し、なぜ専用のハードウェアが必要だったのかという疑問が生じた。 この記事で先を見る: 人間とAIのインターフェースの進化は、迅速な実験と継続的な改良によって特徴づけられたダイナミックな分野です。 次の章では、AIの文脈における人間と機械のインターフェイスに深く浸透することから始めます。これに次いで、未来のAIに焦点を当てたHMIの機会分析と、彼らが扱う感覚によって分類される40社の概要があります。 ヒューマン・マシン・インターフェイス - A Deep Dive 人間の感覚の比較表 HMI Sense Approx. Info Transfer Speed (bandwidth) Typical Latency (biological) Electronic Acquisition Difficulty Importance for HMI (why it matters) Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. Vision ~10–100 Mbps equivalent (retina: ~1M ganglion cells × ~10 Hz avg firing; peak ~10⁸ bits/s raw, but compressed) ~10–50 ms (visual processing lag, saccade update ≈ 30–70 ms) Medium: cameras capture pixels easily, but depth, semantics, and robustness (lighting, occlusion) are hard Highest: most dominant sense; AR/VR, robot teleoperation, situational awareness. Hearing (Audition) ~10–100 kbps effective (20 Hz–20 kHz, dynamic range ~120 dB, compressed equivalent ~128 kbps MP3 quality) ~1–5 ms for cochlea–nerve, ~20–30 ms conscious perception Easy: microphones replicate frequency & amplitude well, but spatial hearing (3D localization, reverberation) is harder High: essential for speech, alerts, immersive UX; natural channel for AI assistants. Touch (Haptics, cutaneous) ~1–10 Mbps (skin has ~17,000 mechanoreceptors in hand; up to 1 kHz sensitivity) ~5–20 ms (nerve conduction 30–70 m/s) Hard: tactile sensors exist, but resolution, softness, temperature, multi-modal feel are challenging High: critical for manipulation, VR/AR realism, prosthetics. Proprioception (body position, muscle/joint sense) ~100–1000 kbps (dozens of muscle spindles & Golgi organs firing continuously) ~10–50 ms Hard: requires motion capture, IMUs, EMG, complex fusion Very High: essential for embodiment, robotics teleop, XR presence. Vestibular (balance, acceleration, rotation) ~10–100 kbps (3 semicircular canals + 2 otolith organs) ~5–10 ms (extremely fast reflex loop for balance) Hard: gyros/accelerometers replicate linear/angular acceleration, but inducing realistic vestibular feedback is very hard Medium–High: important for XR realism; mismatch causes motion sickness. Smell (Olfaction) ~1–10 bps (≈ 400 receptor types, slow temporal coding) ~400–600 ms (perceptual lag) Very Hard: requires chemical sensing or odor synthesis, limited replicability Low–Medium: niche (immersive VR, food, medical diagnostics). Taste (Gustation) ~1–10 bps (5 receptor types, slow integration) ~500–1000 ms Very Hard: chemical stimulation only, few practical electronic taste displays Low: niche (culinary VR, medical). Interoception (internal state: hunger, heartbeat, breath, gut signals) Low bandwidth (<1 bps conscious; autonomic streams richer but subconscious) Seconds–minutes Very Hard: bio-signals accessible via ECG, PPG, hormone sensors, but incomplete Medium: useful for health-aware HMIs, adaptive AI. Thermoception (temperature) ~1–10 kbps ~50–200 ms Medium–Hard: thermal actuators exist, but slow response & safety constraints Medium: enhances immersion, but not primary channel. Nociception (pain) Not a “data channel” but a strong aversive signal ~100–300 ms Not desirable: pain induction ethically problematic Low: only as safety feedback in prosthetics. 主要観察 ビジョンは帯域幅を支配する - 他の感覚よりも大きさの順序を上回るが、また過度に負荷を負うのが最も簡単である(意識的な読書/聴くための40〜60bpsの認知的なボトルネック)。 遅延は異なり重要である:前身とプロピオセプションは迅速な反射感覚 - 遅延は ~20 ms 未満が不可欠で、そうでないと動きの病気 / 脱肉が起こります。 電子購入: 視覚(カメラ)、聴覚(ミックス) メディア:タッチ(圧力センサーの輪、ハプティックアクチュエータ) ハード:ヴェスティボル(侵入的または回転型機器なしではフィードバックが不可能)、プロピオセプション(多形感知が必要)、嗅覚/味覚(化学物質) HMIの重要性: コア:視覚、聴覚、タッチ、プロピオセプション、ヴェスティブラル Niche / Emerging: Smell, Taste, Interoception, Thermoception シングル 重要な区別:入力と出力 - 私たちは視覚と聴覚を容易に感じることができますが、タッチ/ヘプティック&ヴェスティブラルでフィードバックを提供することははるかに困難です。 HMI センサー レーダー ビジョンは帯域幅と重要性で支配し、中間の取得困難を伴います。 聴覚は優れた遅延と容易な取得を提供します。 Touch + Proprioceptionは非常に重要ですが、技術的にはデジタル化が困難です。 Vestibularは遅延感度に高い点数を獲得しますが、電子的に再現することは非常に困難です。 Smell & Taste は、低帯域幅、高難度、低重要性の角(ニッチ)に位置します。 Interoception & Thermoceptionは、主に健康や浸透したフィードバックのために貴重なものです。 HMIチャンスマップ AI-HMI デザインの影響 AI Interfaces Today (short-term): vision + hearing dominate (AR glasses, voice agents), but gesture, touch, micro-movements are the new frontier. 今日(短期)は、ビジョン + 聴覚が支配しています(AR メガネ、音声エージェント)。 近期の突破点:ハプティクス(アフェレンシウム神経ハプティクス、HaptX手袋)、静かなスピーチ(AlterEgo)、プロピオセプションマッピング(IMU + EMG)、前身トリック(電気刺激)。 長期的な:臭い/味/インターオセプション →高度なニッチですが、ハイパー浸透性XRまたは健康に気付いたAIの仲間を作成することができます。 Bottleneck:人間は意識的に感覚原色帯域幅の近くでは処理できません - HMIの設計は、有用で直感的で低遅延性のものに圧縮しなければなりません。 HMI Opportunityマップ Bottom-left (Vision, Hearing) → 高い帯域幅、低い取得困難 → すでにうまくカバーされているが、AI/UXの向上は重要である。 トップ右 (Vestibular、Proprioception、Touch) →高い帯域幅/重要性だが、電子的に取得しにくい →最大のイノベーション機会。 Smell & Taste → low bandwidth, very hard, low importance → niche applications only. Interoception & Thermoception → 適度なニッチ、特に健康意識または浸透性HMIのための。 将来のスタートアップの「甘い場所」は、 ・現在の技術成熟度の潜在価値間の最大の格差。 making hard-to-digitize senses (touch, balance, body sense) usable for AI interfaces HMIのイノベーションのための最大の欠如の機会: I have ranked the senses by (彼らの理論的潜在力と現在の機会スコアの違い) Innovation Gap ビジョン - すでに支配的ですが、まだ最大のギャップを残しています(AI駆動圧縮、セマンティクス、拡張)。 Proprioception - 巨大な潜在力ですが、非常に捉えにくい;それを解除すると、XR / ロボティクスを変えることができます。 タッチ - 電子ハプティクスとタッチセンサーが改善された場合の高い報酬。 聴覚 - 今日では強力ですが、まだ最適化されていません(空間、多様性、選択的な聴覚AI)。 Vestibular - 浸水に不可欠ですが、技術的に困難です。 40 HMIスタートアップ見る 以下は、AIハードウェアスタートアップのカウンセリングされた、最新の風景です。 (HMI) for the AI age. I grouped them by interface modality and flagged the 私は2024~2025年の開発に焦点を当て、リンクや引用を含め、より深く掘り下げることができます。 new human–machine interfaces form factor, what’s new, and stage まず、Bandwidth vs. Acquisition 難易度の点で AI HMI スタートアップの景観を見てみましょう。 1) 静かなスピーチ、神経/神経およびマイクロゲスト入力(非侵入性) Startup Modality & Form Factor What’s new / why it matters Stage / Notes AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering Early funding; working with XR & research labs. AlterEgo Sub-vocal “silent speech” via cranial/neuromuscular signals; over-ear/behind-head wearable Public debut of for silent dictation & AI querying at “thought-speed”; demos show silent two-way comms & device control. ( ) Silent Sense Axios 静かな感覚 アクシデント アクシデント Newly out of stealth; product details pending. Augmental (MouthPad^ ) Tongue + head-gesture touchpad (roof of mouth) in-mouth 口内 Hands-free cursor/clicks; active roadmap on head-tracking & silent-speech; raised seed in late 2023. ( ) MIT News 私のニュース 私のニュース Shipping to early users; assistive & creator workflows. Wearable Devices (Mudra Band / Mudra Link) Neural/EMG-like wristbands (Apple Watch band + cross-platform Link) CES 2025 Innovation Award; Link opens OS-agnostic neural input; dev kit & distribution deals. ( ) CES CES CES Public company (WLDS); consumer + XR partners. Doublepoint Micro-gesture recognition from watches/wristbands turns Apple Watch into spatial mouse; eye-tracking + pinch “look-then-tap” UX. ( ) WowMouse TechCrunch WOWMOUSE TechCrunchについて TechCrunchについて App live; SDK for OEMs & XR makers. Wisear Neural interface in earbuds (jaw/eye micro-movements; roadmap to neural) “Neural clicks” for XR/earbuds; first Wisearphones planned; licensing to OEMs. ( ) wisear.io ワタクシ ワタクシ Late-stage prototypes; announced timelines & pilots. Afference (Phantom / Ring) Neural haptics (output!) via fingertip rings/glove stimulating nerves CES award-winner; creates artificial touch without bulky gloves; neural haptics reference ring. ( ) Interesting Engineering 面白いエンジニアリング 面白いエンジニアリング Early funding; working with XR & research labs. 2)非侵入型ニューロテクノロジー / Everyday BCI wearables Startup Modality & Form Factor What’s new / why it matters Stage / Notes Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV ** Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai Developer community growing. Raised a seed round in April 2025 Neurable EEG + AI in headphones (MW75 Neuro line) Commercial “brain-tracking” ANC headphones measuring focus; productivity & health insights. ( ) Master & Dynamic マスター&ダイナミック マスター&ダイナミック Shipping (US); scaling to EU/UK. OpenBCI (Galea, cEEGrid, Ultracortex) Research-grade biosensing headsets; around-ear EEG kits Galea (EEG/EOG/EMG/EDA) integrates with XR; dev kits for labs & startups. ( ) OpenBCI Shop オープンショップ オープンショップ Hardware available; strong dev ecosystem. EMOTIV EEG headsets & MN8 EEG earbuds Newer consumer & research lines (Insight/EPOC X; MN8 earbuds) used in UX, wellness, research. ( ) EMOTIV 感情 感情 ♪♪♪ Mature startup; DTC + enterprise. InteraXon (Muse) EEG headbands; new Muse S “Athena” EEG+fNIRS Adds fNIRS to consumer headband → better focus/sleep metrics & neurofeedback. ( ) Muse: the brain sensing headband Muse: The Brain Sensing Headband(マウス) Muse: The Brain Sensing Headband(マウス) Shipping; wellness & performance verticals. Cognixion (ONE) Non-invasive BCI + AR speech headset Uses BCI with flashing visual patterns + AI to speak/control smart home; ALS use-cases. ( ) Cognixion 認知 認知 Assistive comms pilots; clinical focus. MindPortal fNIRS-based “telepathic AI” headphones (R&D) Targeting thought-to-AI interfaces with non-invasive optical signals. ( ) mindportal.com mindportal.com について mindportal.com について Early stage; dev previews & interviews. NexStem EEG headsets + SDK Low-cost BCI kits for devs & research; HMI demos. ( ) nexstem.ai ニコニコ ニコニコ Developer community growing. Raised a seed round in April 2025 3) 最小侵入型および侵入型BCI(臨床先、消費者後) Startup Modality & Form Factor What’s new / why it matters Stage / Notes Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn Clinical research leader. acquired by Tether in April 2024 Synchron Endovascular stentrode (via blood vessel → motor cortex) Pairing with NVIDIA? AI to improve decoding; ALS users controlling home devices. ( ) WIRED WIRED WIRED Human trials; lower surgical burden vs open-brain. Precision Neuroscience Thin-film cortical surface array (~1024 electrodes) “Layer 7” interface sits on cortex w/o penetrating; speech/motor decoding. ( ) WIRED WIRED WIRED The company received FDA clearance for the device and has implanted it in 37 patients as of April 2025 Paradromics High-bandwidth implant (“Connexus”) First human test (May 14, 2025); compact 420-electrode array aimed at speech/typing. ( ) WIRED WIRED WIRED Moving toward long-term trials. Neuralink Penetrating micro-electrode implant + robot surgery Large funding; parallel human trials race; long-horizon consumer HMI. ( ) Bioworld バイオワールド バイオワールド Clinical; significant visibility. Blackrock Neurotech Utah-array implants & ecosystems Deep install base in research/clinical BCI. ( ) Tracxn トラック トラック Clinical research leader. acquired by Tether in April 2024 4) AR メガネ、AI wearables & spatial computers (new UX canvases) Startup Device What’s new / why it matters Stage / Notes Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. Brilliant Labs (Frame/Halo) Open smart glasses + cloud AI agent Open hardware/software for devs; lightweight daily-use AR + AI. ( ) Forbes FORBES FORBES Shipping early units; active community. Rokid Light AR/AI glasses New glasses at IFA 2025: on-glasses AI, dual micro-LED displays; live translation, nav, GPT. ( ) Tom's Guide トムのガイド トムのガイド New model announced; consumer price point. Sightful (Spacetop) Screenless laptop + AR workspace Spacetop G1 (and Windows variant) → private, portable 100" desktop; AR productivity UX. ( ) WIRED WIRED WIRED Preorders / rolling availability. Limitless (Pendant) Wearable voice lifelogger + AI memory Records/organizes your day; context memory for assistant; Android app rolling out. ( ) Limitless 無限 無限 Actively shipping units for iOS and has an Android app planned for late 2025. Rabbit (R1) Pocket AI device (LAM-driven) Major RabbitOS 2 UX overhaul; generative UI & new actions after rocky launch. ( ) 9to5Google 9トー5Google 9トー5Google Over 130K devices shipped, but DAU hover around 5,000 as of August 2025 Humane (Ai Pin) Projector pin wearable Cautionary tale—service shutdown & HP acquisition (illustrates pitfalls of new AI UX). ( ) WIRED WIRED WIRED Humane ceased sales of the Ai Pin in February 2025 and sold most of its assets to HP. The service for the Ai Pin was also shut down. 5) Eye、Face & Driver-State Sensing (affect-aware、context-aware UX) Startup Focus Why it matters Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR Smart Eye (Affectiva/iMotions) Eye/face/driver monitoring & interior sensing Automotive-grade attention & affect → safety & adaptive interfaces. ( ) UploadVR アップロード アップロード uSens Gesture & 3D HCI tracking (AR/VR, auto) Vision-based hand/pose tracking at edge for XR & mobile. ( ) UploadVR アップロード アップロード 6) Quick Watchlist (emerging / adjacent) Wispr — ソフトウェアファーストだが、AI時代の音声ネイティブインターフェイスを明示的にピッチする; AI 編集で「キーボードの置き換え」を構築するために立ち上げた。 MindPortal — fNIRS「Thought-to-AI」ヘッドフォン; 早いが注目すべき。 Ultraleap / Leap Motion legacy — hand-tracking pivot; signals consolidation in the category. (UploadVR) HaptX - 工業用グレードのマイクロフリッジ式ハプティック手袋; トレーニングロボット/AI 豊富なヒトデモーション。 進む道のり この記事では、Meta、Apple、Google、OpenAIによる進歩と、ヒューマンピンやウサギR1などの過去の実験から得られた教訓に加えて、伝統的なスクリーンベースのHMIから多感性相互作用への移行を模索しています。人間の感覚の詳細な分析では、情報転送、遅延、取得困難、HMIの重要性を考慮しています。「HMI Opportunity Map」は、接続モダリティに分類された40の有望なHMIスタートアップをリストします。 あなたがこれらの新しい国境を航行するにつれて、あなた自身の仕事、研究、または投資がどのようにより直感的で倫理的で真に人間中心のAI相互作用を作成するのに貢献できるかを考慮してください。