Eyeflunence头显:用你的眼睛控制世界
新研发的眼球追踪技术可以让用户通过眨眼就可以控制他们的虚拟世界。
现在的增强现实和虚拟现实头显需要手部或者声音来触发启动。 但是随着眼球追踪系统的发展, 人们只需要通过盯着屏幕就可以控制所处的虚拟世界。
位于旧金山的Eyefluence表示:利用这项技术, 用户就可以通过眼睛来把意图转化为行动。 这将会革新现有的头显设备。
Eyefluence宣称利用这项技术, 用户就可以通过眼睛来把意图转化为行动。 并且坚信这项技术会革新现有的头显设备。 这项技术仍然是比较薄弱的, 但Eyefluence表示这项技术使用了生物力学。
Eyefluence同时还宣称这是世界上第一代眼球交互技术。
这项技术仍然是比较薄弱的, 但是该公司对自己的追踪技术很有信心, 认为这项科技将会改变人机交互模式。
这家公司解释说: 用户可以通过眼睛来把意图转化为行动。
Eyefluence的执行总监Jim Marggraf说:“ 就像是你的手指操作智能手机一样, 你的眼睛也可以在虚拟现实或者增强现实中实现这样的操作。 ”
这家公司解释说: 用户可以通过眼睛来把意图转化为行动。 只需看着一件物体或者一个图标, 用户就可以选择这个选项或者这个物品。 上面的图片为这项技术的demo展示。
这项技术的工作原理是什么?
以目前的发展阶段来看, 这项技术仍然是比较薄弱的, 但Eyefluence表示这项技术是基于眼球与大脑交互的生物原理而开发的。
图形处理和眼球追踪算法会计算出到底用户是不是在看着这个物体。
同时也会把眼球的细微运动计算进去, 从而判断视线将会移向何方。
这样子就可以减少定位所需的时间和能量。 Eyefluence宣称这项技术将会大大的加快用户与虚拟世界的交互时间。
这项技术的主要优势在于“视网膜中央渲染”(YiViAn之前的报道叫:注视点渲染), 只捕捉人类视觉最清晰的那一部分。
Eyefluence希望通过减少渲染来降低硬件输出, 甚至可以削减设备的成本。
这项技术需要用户移动视线, 把目光定位在物体或者图标上, 从而作出选择。
这项技术需要依靠图形处理和眼球追踪算法来计算出视线矢量, 从而得出用户正在看的东西以及观看时间。
眼球的细微运动称为“眼跳”, 这项技术会把眼跳计算在内, 从而预判用户视线将会移向什么地方。
通过计算分析这些生物因素, Eyefluence宣称这项技术将会大大的加快用户与虚拟现实和增强现实世界的交互时间。
通过这项技术, 用户在佩戴头显的时候, 无需手部指令或者控制器就可以进行选择和定位光标。
这也意味着用户无需用手, 就可以沉浸到虚拟世界中去了, 这项技术为虚拟世界打开了另一扇门。
除了上面提到的好处外, 这项技术还可以减少设备的功耗。
目前的虚拟现实设备需要持续渲染用户所看到的每一处地方。
但如果可以更准确地对眼球实现定位追踪的话, 那么只需要渲染用户正在留意的那个地方就可以了。 Eyefluence将其称为“视网膜中央渲染”。
通过先进的眼球追踪技术, 用户在佩戴头显的时候, 无需手部指令或者控制器就可以进行选择和定位光标。
Eyefluence展示了一个视频, 向我们阐释了眼球追踪系统是如何运作的。 用户只需要看着这个物品就可以进行选择了。
这个渲染技术可能会减少处理图像所需的硬件输出, 从而降低成本。
早前的评论都很看好这项科技的应用前景。
TechCrunch在今年年初进行的实地测试, 测试表明, 用户可以轻松上手, 通过视线进行光标定位只需很小的能量。
据透漏, 这项技术最早将于2017面世。