最后一个难题,那就是在交互系统方面。VR可以采用穿戴式手套传感器或者是手持操作柄进行控制。
AR就不行了,因为AR要适应于多种环境和场景,所以必须要有一套更加简单直接的方式才行。
目前为此想到的总共有三种方式,首先第一种眼球跟踪控制技术。
通过眼球捕捉传感器来实时的捕捉眼球的转动,眨眼,以及眼球聚焦中心来进行交互控制。这项技术目前已经实现,并在很多设备上面都有很好的应用表现。
一般情况下,这项技术也会配合头部运动传感器来进行使用。比如你抬头向上看的时候,屏幕显示内容向上滑动;低头向下看的时候,屏幕显示内容向下滑动。向左向右看的时候,屏幕显示内容也会相应的向左向右进行滑动。
当你眨眼的时候,可以进行确定选定等操作。比如眨一下眼睛是确定,两下是撤销等等,这就相当于鼠标的左右键。
而眼睛聚焦的焦点呢,也正好对应了鼠标的光标。你往哪里看,焦点就在哪里,和鼠标滑动的光标一样非常灵活。
第二种方式呢,则是采用手势控制技术,利用传感器捕捉前面手势的移动变化来进行交互控制。
比如手向上向下滑动,屏幕显示内容也会向上向下滑动,向左向右也是如此。手指拉动还可以移动屏幕位置,或者放大和缩小屏幕。手指点击确定,挥手撤销等等。
手势识别控制技术,目前发展的也很快,但想要识别高速运动的手势变化,还是有一些困难。这就要求传感器必须对手势有着精准的识别捕捉能力,同时处理器也能够快速准确将这些手势转换成相关的操作指令。
还有一点,那就是每个人的手势操作姿势都不相同,或者说每个人每次的操作手势也都不相同。哪怕是一个手势,不同时间环境场景下也都会有一些变化。