就移动来看,VR场景是无限的,不幸的是,玩家用户所处场景是有限的,除了在有限的平方里活动交互+teleport方式位移/Xbox手柄操作位移,还有没有其他的交互方式?
未来VR头盔是以 PC + 无线(5G)的展示交互(终端式)为主,还是高配置头盔(一体机式) 为主?
VR场景交互问题及VR产品发展方向问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
- caoyuwh 2016-08-03 10:11关注
你在问题中描述的交互是狭义上的交互,事实上,感知与交互是非常复杂的。目前而言,VR产业的三大链条,显示、内容和交互中,显示和内容已经有了一定的标准,唯独交互出现了千奇百怪的方式,发展出了不同的分支。的确,人与机器的交互从来没有统一过,当计算机被发明的初期,与计算机的交互是通过各种开关与卡孔,复杂且低效。后来,电脑逐渐普及,出现了鼠标、键盘、数位板、手柄等,电脑交互变得简单易用。到了智能手机时代,依靠传感器,人机交互使用上了越来越丰富的交互方式,比如按键、摇晃、手势等。虚拟现实技术将融入了更多复杂多样的交互手段,很难出现一种通用的交互方式,我们也不能奢望出现一套通用设备解决所有的交互难题。可以预见,未来虚拟现实产业日趋成熟后,我们仍会以不同的方式用于虚拟现实交互。
按传感器或位置的不同,可以将交互分为如下几类:
头部追踪:头部追踪现阶段的虚拟现实设备基本都具备的功能,依靠摄像头、陀螺仪、重力感应器、激光定位器、加速度计等传感器,头显设备可支持6自由度的追踪。使用者通过转头、抬头、移动等动作进行定位和交互。
手柄控制:手柄是现阶段虚拟现实应用最广的交互设备,传统手柄、体感手柄、体感枪、体感方向盘、摇杆控制器、蓝牙体感遥控、体感棒、触摸板等设备均可归于此类。手柄控制具有较好的用户基础,学习成本低,键位识别精确。手柄控制的缺点就是沉浸感不强,交互方式不自然,所以只是虚拟现实的过渡形态。
手势追踪:依靠摄像头及传感器,虚拟现实可以实现一定程度的手势追踪,进而将手势转化为命令与设备进行交互。用摄像头进行光学手势追踪,优势在于使用门槛低,场景灵活。缺点就是受限于场地、视角和精确度。摄像头看不到的地方无法追踪,动作不规范不易识别,使用手势太久用户会很累等情况仍然存在。使用数据手套等设备可以依靠惯性传感器,来追踪用户手指及手臂的运动,这种交互的优势在于没有视场限制,而且完全可以在设备上集成反馈机制,比如震动、发热、按钮、触摸以及力反馈等。缺点是需要额外穿戴设备,对手臂运动也是一种束缚。未来数据手套或许可以足够简化甚至植入人体皮层中,让人感觉不到它的存在。
眼球追踪:虚拟现实内容主要通过视觉传递给用户,所以眼睛的作用格外重要,Oculus创始人帕尔默·拉奇曾称眼球追踪为“VR的心脏”。眼球追踪技术对于人眼位置的检测能够确保为眼睛提供最佳的景深、视角和效果,从而解决部分人的不适应及眩晕等问题。眼球追踪技术还可以获知人眼的真实注视点,利用局部渲染技术让硬件优先高分辨率渲染眼球中央的图像,视野外围用较低分辨率的渲染,从而提升渲染效果,减少设备计算量。SMI公司发布的补充眼动追踪技术被应用到了Oculus Rift DK2套件中。Tobii公司与Starbreeze合作,眼球追踪技术将被应用到FOV Star VR头显。
全身动作捕捉:通过在身体各个运动关键部位穿戴感应器或穿戴全身智能紧身衣等方式,可以实现一定程度的全身动作追踪。Kinect等类似的光学设备在某些精度要求不高的交互场景中也会被应用。动作捕捉还被用于影视拍摄中,《魔戒》里的咕噜姆、《阿凡达》里的纳威人等经典虚拟形象都是通过Motion Capture动作捕捉技术生成的。先用多个摄影机捕捉真实演员的动作,然后将这些动作还原并渲染至虚拟形象身上。2016年,国内的动作捕捉公司诺亦腾发布了名为Project Alice的虚拟现实解决方案,用于游戏和影视制作中的动作捕捉。OBE Immersivegaming夹克衫是一种可穿戴的交互服装,内置了力反馈装置、触觉控制器、动态捕捉感应器、生物指标探测器等。用户穿上它后,就可以和虚拟世界进行交互。比如,利用手部的触觉控制器进行射击,利用力反馈装置模拟出被击中的感觉。由德国哈索普列特纳研究所HCI(Human-Computer Interaction)实验室的研究人员开发出一款Impacto,玩家可以把它佩戴它上体验VR拳击游戏。Impacto配备了振动和肌肉电刺激系统,可以通过电流刺激肌肉收缩运动,让拳击运动的感觉更真实。
位置或场地追踪:在The VOID、Zero Latency等虚拟现实主题乐园中,会使用多个体感感应器(如Light house、Playstation Eye、微软Kinect)对每个玩家用指定的感应器进行追踪实现对多个用户的位置和行为进行实时的追踪,以实现多人在虚拟现实中交互。
表情识别:识别表情能让机器获取人类的情感,根据情感不同,虚拟现实可以产生不同的反馈。首先通过摄像头等设备获取人脸图像,然后再确定人脸的位置和大小,根据其特征识别表情。美国的Reach Bionic公司开发了一个名为Conjure的控制系统,通过分析用户的面部肌肉运动来追踪用户的面部表情。
呼吸:Oculus share有一款用呼吸来控制的虚拟现实游戏《DEEP》,通过用户胸部绑定探测器收集呼吸数据,并以此来控制游戏角色。
语音控制:在VR里,语音不仅可以用于用户间聊天,还可以用于人机交互。使用语音来控制机器也是一种可行的交互方式。机器完全理解人类语音还有困难,但是定义固定词语用于特定指令实现并不困难,比如“锁定”、“打开”、“关闭”、“前进”、“后退”等。
脑波控制:通过大脑用意念控制机器是不是很炫酷?脑波控制已经有取得了初步成果,比如美国NeuroSky公司设计的意念力工具;国内视友科技的“脑波赛车”等各式各样的脑电波控制设备。终极的脑波控制应该能够像《黑客帝国》那样,对大脑直接作用,产生所有“真实”的感觉。
其他辅助交互设备:现阶段虚拟现实还有很多五花八门的交互方式,比如全向跑步机、虚拟现实蛋椅、Turris座椅、虚拟现实赛车、虚拟现实脚踏车、全息甲板、虚拟现实飞行模拟仓等。除了上述之外,还有一些其他交互方式,比如有借助牙齿咬力的、有借助耳机的……随着技术发展,更多的交互需求和交互方式也会应运而生。
我认为,未来相当长一段时间,桌面式VR头盔和移动一体机式VR头盔仍会同时存在,毕竟性能和便捷很难得到同时满足。但VR的“最终形态”对性能要求极高,桌面式将是极致效果VR的唯一选择。解决 1无用
悬赏问题
- ¥15 平板录音机录音问题解决
- ¥15 请问维特智能的安卓APP在手机上存储传感器数据后,如何找到它的存储路径?
- ¥15 (SQL语句|查询结果翻了4倍)
- ¥15 Odoo17操作下面代码的模块时出现没有'读取'来访问
- ¥50 .net core 并发调用接口问题
- ¥15 网上各种方法试过了,pip还是无法使用
- ¥15 用verilog实现tanh函数和softplus函数
- ¥15 Hadoop集群部署启动Hadoop时碰到问题
- ¥15 求京东批量付款能替代天诚
- ¥15 slaris 系统断电后,重新开机后一直自动重启