Conversation

2/ デバイス側の精度が向上すれば現状のマウスによる操作よりも格段に早い操作が可能になる。 しかし、Gazeインタラクションの問題はアクション決定のために対象をしばらく見つめ続ける必要があることで、この遅延(滞留時間)は通常500ms程度。そうなると、
1
2
3/ マウスベースのインタラクションよりも遅くなってしまう。 そこで興味深いアプローチが「Dual Gaze」という手法で、対象に視線が合った後で、確認のためのサッケード運動によってアクションを起こすというもの。このインタクションは100ms以下で行うことができ、
1
1
4/ マウスベースのインタラクションの2倍の速さになる。 決定アクションを目の筋肉以外を使うソリューションは無数にある。例えばApple WatchのAssistive Touch。 (これは恐らくグラス時代を見据えた布石だろう)
1
2
5/ もちろんGazeとハンドジェスチャーを組み合わせたインタラクションも可能で以下動画で狙ったアイテムをつかんでジャグリングができているように、両者の組み合わせには大きな可能性がある。
Replying to
6/ また、文字・形・色・うごきの順に認識できる視野は狭くなる。脳が補完しているだけで視界周辺は実はモノクロというのはよく知られている。 そのため、アイトラッキングを活用して注視付近だけを高解像度でレンダリングする「Foveated-Rendering」は、
Image
1
1
7/ パフォーマンス最適化のためのは代表的な手法になっている。 そしてレンダリング調整よる用途として、色覚異常の人が普段できない色の区別がつくようになったり、健康な人の視覚を強化することで、特定の作業のパフォーマンスを向上させることができるかもしれない。
Image
1
2
8/ このように視線入力は大きな可能性を秘めている。視線の精度が向上すればVR SNS内での体感は変化するかもしれないし、ディスレクシア(難読症)の解決や、ALS患者によってスムーズなコミュニケーション方法になるかもしれない。
4