如下由焰火工坊COO张闯在创业聚会中的分享,张闯之前担任腾讯网数码频道主编。
PC时代,电脑取代了纸和笔这样的生产力工具。移动时代,手机没取代谁,但成为生活和工作不可缺少的工具,拉近了交流距离,加强了生活的多样和便捷,是一种延伸。
文/孕峰 yunkejiAPP
下一个能给人们的生活工作带来改变的,我觉得是VR(虚拟现实)和AR(增强现实)。它们也不会取代谁,却是生活和工作工具的再一次延伸,会带来全新的内容体验和风格。尤其是AR,在现实世界基础上增加更多的虚拟的信息。谷歌眼镜就是AR。
之前我们强调科技产品,多用高效来形容,是一种效率工具。但都没带来视觉上的改变。VR则不同,它强调的不是高效,而是在虚拟的世界里更真实的体验。你在之前的科技产品中扮演第三人称,而在VR的世界里你是主角,是第一人称的体验。
Virtual Reality的定义,利用计算机等等接口设备,让用户在虚拟的、可交互的三维环境中提供沉浸感觉的技术。
自VR概念出现以来,科技产业一直未能找到好的切入点,直到Oculus创始人Palmer Luckey用双眼成像原理来构建3D视觉效果,较低成本的方式实现了浸入式体验,才为虚拟现实商业化找到突破口。
所谓浸入式体验,就是带上VR设备后,认为自己真的进入到了与现实无关的另一个空间。从这个角度看,它将可能带来跟互联网同一个量级的变革。
过去基于二维界面的多种服务都将被VR颠覆,随着设备的小型化和轻量化,市场将会以指数级增长,这也是Facebook以20亿美元并购Oculus的原因。扎克伯格称,虚拟现实是移动互联网后的下一个计算平台。
尽管VR技术尚未尽善尽美,但体验上带来的提升已初见潜力。可以预期的是,所有冠以体验经济的产业都会率先与VR结合,包括电影电视、游戏等都已开始相关探索。在线教育、工业设计等也积极跟进。
目前,三星、索尼、oculus、HTC、英伟达等电子巨头已介入。Google正在研发为VR设备定制的操作系统。YouTube宣布将支持在VR设备Android版应用中上传和播放360度全景视频。
中国市场上,以暴风影音为主的公司也开始进入。目前为止,浮在水面上的公司极少有能力和国际巨头比拼。大部分在概念设想和硬件制造阶段。
我们对VR市场的判断。
1、移动VR将成主流
市面上有PC外设和手机外设两种。我们认为PC为核心的VR设备目前建立在PC游戏的基础上,PC游戏的萎缩导致其并不具备爆发性增长的潜力,即便存在潜力,也与PC游戏断层的中国无关。
VR产品的普及将从移动端开始。即以VR眼镜盒子,集成安卓系统的低价VR头盔将会是市场主流。但由于头盔比较贵,以手机为核心载体的VR眼镜盒子将更早普及。
对安卓和iOS底层的研究,将是未来VR产业不可缺少的核心资源,目前我们在播放器的实践证明了这一观点。底层研究不足,后果就是播放时卡顿严重,看了会恶心想吐不舒服。
2、软件比硬件更易成为平台
未来在VR市场上会出现,通用型VR眼镜盒子(暴风魔镜),专用手机VR眼镜盒子(三星Gear VR)和VR头盔三个阶段。
受制于产品特性,在通用VR眼镜盒子阶段,硬件厂商无法对用户进行软硬件的真正捆绑。因为盒子只是外设,类似手机壳。从专用手机VR眼镜盒子阶段开始,才会有软硬件的结合。
当以手机为载体时,真正能常驻手机的是APP而非眼镜盒子,APP可以迅速通过迭代来提升体验和功能。而盒子很难做到。所以盒子本质上是为APP在吸引用户。
3、可迅速VR化的几个领域
VR技术天然就是影视的最佳载体。我们的焰火影院目前已可以实现在GearVR等高端设备上实现几近真实影院的观影效果。任何网页上的播放器都不能与之媲美。
游戏市场对VR的关注几乎是最早。在各大VR平台上游戏DEMO的数量层出不穷,浸入式体验带来的游戏体验的提升是巨大的。在解决操作等细节问题后,VR游戏将迎来爆发。
视频直播也是VR设备存在巨大潜力的领域。诸多音乐平台上已对演唱会进行售票,但提供的只是简单的视频直播。借助VR设备将可以完全沉浸在现场中。
在线教育、虚拟旅游、虚拟看房、商业展示等2B的应用也将迅速发展,和2C的影视及娱乐不同,2B业务可以迅速产生利润。尤其是展示和体验部分,已有人关注。
焰火工坊在去年10月开始做,核心团队曾打造第一代暴风眼镜app,CTO王明杨此前曾任LBE的CEO,这是一家获得腾讯和阿里投资的安全公司,也是第一代暴风魔镜APP的核心成员。王明杨做过安全系统,对安卓和iOS底层很了解,能针对不同VR硬件实现最好的体验。
目前我们正在做三款产品。影视和游戏是目前最热的两个方向,OS是我们想在VR领域树立地位和搭建平台不可或缺的产品。
1、焰火影院
我觉得可以说,这是国内首款真正意义上的VR影院播放器,能在有限资源下实现真正的沉浸式观影。
此前国内的诸多类似产品不能提供真正的VR观影,只是针对VR眼镜的分屏播放器,长期使用对人体健康有影响。个别播放器实现了丢影院的模拟,但因为对操作系统底层了解不够,有延迟,画面卡。
焰火影院能提供三档播放环境,中档以上手机都可以实现优质的沉浸式电影观赏。不是把画面放大,而是真正提供一种在虚拟环境中看电影的体验。5月上旬发布。
简单说,别人的产品,是眼球前面放了一个支持3D效果的放大镜,我们是造了整个虚拟的电影院,这也是Oculus的方式。
2、最后的荣耀1944及首款VR游戏SDK
这是一款商业VR游戏大作,不是随便做的DEMO,不仅展示VR技术,还在游戏性上下了功夫。开发过手游的团队才能明白我们的努力,同时还做了大量的界面和操作上的研究和探索,为VR游戏真正成熟积累了教训。5月下旬发布。
首款VR游戏SDK在四月末已发布,基于U3D,3天下载过千。这个SDK最大意义在于能帮开发者快速移植和开发VR游戏和应用。移植U3D的小品级游戏,使用我们的SDK,十几分钟可以完成。
3、天幕系统
可以理解为针对VR进行优化的一个桌面,任何VR设备都可以适配,包括应用市场、影音播放、游戏体验、图片浏览等功能。现在国内硬件有90多家团队,只要我的体验好,所有人的用户都是我的用户。
我们之所以一开始就选择从软件内容入手,而不做硬件,主要考虑是:
1、在中国这样的环境,硬件并不存在短板,可以快速找到工厂开发。无论历史还是未来,驱动硬件快速成长的永远是软件。硬件是马,软件和内容是车夫。我们想真正驱动这个行业。
2、在行业还没完全成熟的初期,硬件的迭代成本相对高,时间的局限性大。
3、指望硬件赚钱太难。
我们未来一年内会专注于VR整个软件内容平台的研发,初期会以视频播放和游戏为主,同时坚定的打造VR虚拟软件平台。
在视频播放方面,我们要做的是:
加强对安卓和iOS底层研究的深度。建立壁垒。在游戏、直播、虚拟教育、虚拟旅游等多个领域研发,在播放器等工具类领域以单品APP切入垄断市场,在游戏等领域提供标杆式产品。
影视体验会是未来两年虚拟现实设备上最大的需求。我们已在格式的支持上、环境光效等细节领跑国内市场。接下来就是内容合作,为焰火影院引入更多影视,甚至是为VR定制视频内容。
举个例。现在看电影都是在跟着剧情走,而且是一维的,你没选择剧情走势的权利。VR上的交互则不同,除了还原出巨大的屏幕甚至360度的视角外,它可以让你做主角、配角甚至导演,当每一步剧情需要抉择时,你可以深陷其中的选择,下一步其他演员做什么。当一个演员要跳崖,你可以选择跳还是不跳。虽然在现有平台下,这些都可做到,但你没沉浸其中,看起来更像游戏,没那么真实。
还有360度的环景视频。前面提到YouTube等已在做类似的内容源,我们了解到国内的视频公司也开始了,这是虚拟现实视频播放的大契机。
针对不同的视频类型也会进行适配,让用户可以选择影院的场景,比如看演唱会会增加体育馆的环境选择,看综艺节目会增加舞台效果的选择,看体育节目会增加场馆的选择等等。最大限度的还原现场感。
用户群够大后,融入社交属性也是目标。人们的内心其实是乐于共享,比如看电影,你会叫上朋友或家人,比如演唱会,你会参加粉丝团,比如看球赛,你会约上球友去酒吧,你会邀请某个女生一起看恐怖片。
在视频、影像领域,人们乐于共享。我们完全可以在虚拟影院中加入类似的社交。邀请好友,同在这个虚拟影院里一起,他就坐你边上。你甚至可以和他在里面牵手、交谈。大胆一点,你可以邀请陌生人来。依靠这些关系链,虚拟现实的商业化可以实现。
最后,将虚拟现实视频应用到更多领域。比如在线教育,现在的在线教育你是坐在电脑前,你可能抽着烟。但学习的本质是交流,电脑的交流很机械,也没带入感。虚拟现实就能解决这个问题。你仿佛真的置身于教室,可以与老师同学互动。
在游戏方面,我们将要做的是:
1、为本土玩家提供更多游戏。按每年3-4部原创VR游戏的速度推进,更多的以第一人称视觉让玩家沉浸。
2、增强游戏的联网性。目前的VR游戏基本上都是单机。我们会让多个玩家共同去连接、互动,这样会对游戏和VR本身带来更大粘性。
3、在输入和体感上更加细致的结合。现有的大多数VR游戏只是欺骗视觉,在真正的感知上还少有触及。我们会在一年内与体感相关的专业公司合作,在VR游戏的体感和输入上进行更多探索。
比如,在玩一款拳击对战VR游戏时,你的手套和身体都会有明显的反馈。当然,所有这些都是带给你感知,并不会伤害到身体。
最后是打造VR系统大平台。
《天幕VR》系统,需要在输入输出、人机交互,VR及非VR模式转换等多个角度深入研究,成为VR领域的领跑者。
可以把它看做VR上的操作系统,将收录更方便的应用并优化,可以把它看成手机上的MIui。
除了虚拟现实,我们也在做增强现实技术上的积累,并在进行一些小的实验。
斯坦福大学虚拟互动实验室创始人Jeremy Bailenson教授评价过,“虚拟现实是把你从精神上送到另外一个世界,而增强现实是增加信息给你,让你在现实世界里更好的去导航。我觉得他们两个其实是一个连续体上的两个点。”
张闯的邮箱85744404(at)qq.com
15年底,我们在对VR的总结与盘点一文中曾提到,“2016年,VR的交互性将变得越来越重要”。正如同平面图形交互在不同的场景下有着不同的方式,VR交互同样不会存在一种通用的交互手段,同时,由于VR的多维特点注定了它的交互要比平面图形交互拥有更加丰富的形式。目前,VR交互仍在探索和研究中,与各种高科技的结合,将会使VR交互产生无限可能。今天小编就总结九种VR交互方式以及它们的现状。
1、“动作捕捉”
用户想要获得完全的沉浸感,真正“进入”虚拟世界,动作捕捉系统是必须的。目前专门针对VR的动捕系统,目前市面上可参考的有 Perception Neuron,其他的要么是昂贵的商用级设备,要么完全是雾件(意为在开发完成前就开始进行宣传的产品,也许宣传的产品根本就不会问世)。但是这样的动作捕捉设备只会在特定的超重度的场景中使用,因为其有固有的易用性门槛,需要用户花费比较长的时间穿戴和校准才能够使用。相比之下,Kinect这样的光学设备在某些对于精度要求不高的场景可能也会被应用。
全身动捕在很多场合并不是必须的,它的另一个问题,在于没有反馈,用户很难感觉到自己的操作是有效的,这也是交互设计的一大痛点。
2、“触觉反馈”
这里主要是按钮和震动反馈,这就是下面要提到的一大类,虚拟现实手柄。目前三大VR头显厂商Oculus、索尼、HTC Valve都不约而同的采用了虚拟现实手柄作为标准的交互模式:两手分立的、6个自由度空间跟踪的(3个转动自由度3个平移自由度),带按钮和震动反馈的手柄。这样的设备显然是用来进行一些高度特化的游戏类应用的(以及轻度的消费应用),这也可以视作一种商业策略,因为VR头显的早期消费者应该基本是游戏玩家。
但是,这样高度特化/简化的交互设备的优势显然是能够非常自如地在诸如游戏等应用中使用,但是它无法适应更加广泛的应用场景。
3、“眼球追踪”
提起VR领域最重要的技术,眼球追踪技术绝对值得被从业者们密切关注。Oculus创始人帕尔默?拉奇就曾称其为“VR的心脏”,因为它对于人眼位置的检测,能够为当前所处视角提供最佳的3D效果,使VR头显呈现出的图像更自然,延迟更小,这都能大大增加可玩性。同时,由于眼球追踪技术可以获知人眼的真实注视点,从而得到虚拟物体上视点位置的景深。所以,眼球追踪技术被大部分VR从业者认为将成为解决虚拟现实头盔眩晕病问题的一个重要技术突破。但是,尽管众多公司都在研究眼球追踪技术,但仍然没有一家的解决方案令人满意。
VR的眼球追踪可利用类似tobii眼动仪的设备实现,但前提是解决设备的体积和功耗。事实上,在业内人看来,从眼球追踪技术本身来说,虽然在VR上有一些限制,但可行性还是比较高的,比如外接电源、将VR的结构设计做的更大等。但更大的挑战在与通过调整图像来适应眼球的移动,这些图像调整的算法目前来说都是空白的。有两个指标,一是图像自然真实,二是快速延迟小。这对VR+眼球追踪提出了更高的要求,如果达到这两点,VR的可玩性会再提高一个档次。
4、“肌电模拟”
关于这个我们通过一个VR拳击设备Impacto来说明,Impacto结合了触觉反馈和肌肉电刺激精确模拟实际感觉。具体来说,Impacto设备分为两部分。一部分是震动马达,能产生震动感,这个在一般的游戏手柄中可以体验到;另外一部分,也是最有意义的部分,是肌肉电刺激系统,通过电流刺激肌肉收缩运动。两者的结合能够给人们带来一种错觉,误以为自己击中了游戏中的对手,因为这个设备会在恰当的时候产生类似真正拳击的“冲击感”。
然而,业内人士对于这个项目有些争议,目前的生物技术水平无法利用肌肉电刺激来高度模拟实际感觉。即使采用这种方式,以目前的技术能实现的也是比较粗糙的感觉,这种感觉对于追求沉浸感的VR也没有太多用处,“还不如震动马达”。还有一位从事疼痛缓解理疗仪的朋友表示,利用肌肉电刺激来模拟真实感觉需要克服的问题有很多,因为神经通道是一个精巧而复杂的结构,从外部皮肤刺激是不太可能的,但是“随便”电刺激一下让肌肉运动以当做反馈是可以的。
5、“手势跟踪”
使用手势跟踪作为交互可以分为两种方式:第一种是使用光学跟踪,比如Leap Motion和NimbleVR这样的深度传感器,第二种是将传感器戴在手上的数据手套。
光学跟踪的优势在于使用门槛低,场景灵活,用户不需要在手上穿脱设备,未来在一体化移动VR头显上直接集成光学手部跟踪用作移动场景的交互方式是一件很可行的事情。但是其缺点在于视场受局限,以及我们之前所提到的两个基本问题:需要用户付出脑力和体力才能实现的交互是不会成功的,使用手势跟踪会比较累而且不直观,没有反馈。这需要良好的交互设计才能弥补。
数据手套,一般在手套上集成了惯性传感器来跟踪用户的手指乃至整个手臂的运动。它的优势在于没有视场限制,而且完全可以在设备上集成反馈机制(比如震动,按钮和触摸)。它的缺陷在于使用门槛较高:用户需要穿脱设备,而且作为一个外设其使用场景还是受局限:就好比说在很多移动场景中不太可能使用鼠标。不过这些问题都没有技术上的绝对门槛,完全可以想象类似于指环这样的高度集成和简化的数据手套在未来的VR产业中出现,用户可以随身携带随时使用。
这两种方式各有优劣,可以想见在未来这两种手势跟踪在很长一段时间会并存,用户在不同的场景(以及不同的偏好)使用不同的跟踪方式。
6、“方向追踪”
方向追踪除了可以用来瞄点,还可以用来控制用户在VR中的前进方向。不过,如果用方向追踪调整方向的话很可能会有转不过去的情况,因为用户不总是坐在能够360度旋转的转椅上的,可能很多情况下都会空间受限。比如头转了90度接着再转身体,加起来也很难转过180度……所以,这里“空间受限无法转身是一个需求”,于是交互设计师给出了解决方案——按下鼠标右键则可以让方向回到原始的正视方向或者叫做重置当前凝视的方向(就是你最初始时候面向的那个方向),或者可以通过摇杆调整方向,或按下按钮回到初始位置。
但问题还是存在的,以用户面朝的方向作为行走方向比起键鼠和gamepad,转向和视觉相匹配极大地增强了沉浸感,但是却有可能玩得很累,削弱了舒适性。
7、“语音交互”
在VR中海量的信息淹没了用户,他不会理会视觉中心的指示文字,而是环顾四周不断发现和探索。如果这时给出一些图形上的指示还会干扰到他们在VR中的沉浸式体验,所以最好的方法就是使用语音,和他们正在观察的周遭世界互不干扰。这时如果用户和VR世界进行语音交互,会更加自然,而且它是无处不在无时不有的,用户不需要移动头部和寻找它们,在任何方位任何角落都能和他们交流。
8、“传感器”
传感器能够帮助人们与多维的VR信息环境进行自然地交互。比如,人们进入虚拟世界不仅仅是想坐在那里,他们也希望能够在虚拟世界中到处走走看看,比如万向跑步机,目前Virtuix,Cyberith和国内的KAT都在研发这种产品。然而体验过的人都反应过,这样的跑步机实际上并不能够提供接近于真实移动的感觉,目前体验并不好。还有的想法是使用脚上的惯性传感器使用原地走代替前进,比如StompzVR。还比如全身VR套装Teslasuit,戴上这套装备,可以切身感觉到虚拟现实环境的变化,比如可感受到微风的吹佛,甚至是射击游戏中还能感受到中弹的感觉。
这些都是由设备上的各种传感器产生的,比如智能感应环、温度传感器、光敏传感器、压力传感器、视觉传感器等,能够通过脉冲电流让皮肤产生相应的感觉,或是把游戏中触觉、嗅觉等各种感知传送到大脑。但是,目前已有的应用传感器的设备体验度都不高,在技术上还需要做出很多突破。
9、“一个真实场地”
就是造出一个与虚拟世界的墙壁、阻挡和边界等完全一致的可自由移动的真实场地,比如超重度交互的虚拟现实主题公园The Void就采用了这种途径,它是一个混合现实型的体验,把虚拟世界构建在物理世界之上,让使用者能够感觉到周围的物体并使用真实的道具,比如手提灯、剑、枪等,中国媒体称之为“地表最强娱乐设施”。
这种真实场地通过仔细的规划关卡和场景设计就能够给用户带来种种外设所不能带来的良好体验。但规模及投入较大,且只能适用于特定的虚拟场景,在场景应用的广泛性上受限。
■ ■ ■
▌ 虚拟现实是一场交互方式的新革命,人们正在实现由界面到空间的交互方式变迁。未来多通道的交互将是VR时代的主流交互形态,目前,VR交互的输入方式尚未统一,市面上的各种交互设备仍存在各自的不足。
业内专家表示,短期内VR发展仍靠技术红利推动,交互技术将成关键。同时,在硬件性能趋同的背景下,交互技术将构成差异化竞争力。在产业链方面,“交互算法是关键,下游应用空间广”,整个输入设备产业链主要由上游的元器件生产商(主要以传感器、芯片生产商为主),中游的输入设备制造商、交互方案提供商组成,下游则以游戏、影视、主题公园及其他企业级应用为主。他们表示,未来传感器的供应问题将在国外厂商授权部分国内厂商生产等因素下得到部分解决,届时具备领先自主算法技术的交互解决方案提供商将日趋重要。
如果你明白放大镜的原理,我想这个眼镜的原理你也不难理解了。
虚拟现实眼镜现在的结构一般都是“透镜+屏幕”的成像方式,透镜在眼前2-3cm处,屏幕距透镜3-6cm,虚像成像在眼前25cm-50cm左右。(这就带来了视力疲劳的问题,戴头盔眼镜时,视线将一直持续聚焦在25cm-50cm处,无法移动,并且视野里全部是电子显示屏,时间长后眼部肌肉会极度疲劳,想象一下你双眼距离电视屏幕半米以内一直不动……但上述光场成像则是模仿现实世界的真实光场信息,眼部聚焦点会不断移动,没有上述问题)
1、放大镜成像原理
当物体 AB 置于透镜焦距 f 以外时,得到倒立的放大实像 A′B′(如图 1-1(a)),它的位置在 2 倍焦距以外。若将物体 AB 放在透镜焦距内,就可看到一个放大正立的虚象 A′B′(如图 1-1(b))。映象的长度与物体长度之比(A′B′/AB)就是放大镜的放大倍数(放大率)。若放大镜到物体之间的距离 a 近似等于透镜的焦距(a≈f),而放大镜到像间的距离 b近似相当于人眼明视距离(250mm),则放大镜的放大倍数为:N=b/a
[Ps:人眼能够看清物体的最近距离就称之为明视距离。实际上明视距离因人而异,对于近视眼,明视距离会短一些,远视眼会长一些。对于健康的人眼,明视距离在250mm左右,因此我们通常将明视距离就设定为 250mm。]
由上式知,透镜的焦距越短,放大镜的放大倍数越大。一般采用的放大镜焦距在10~100mm 范围内,因而放大倍数在 2.5~25 倍之间。进一步 高放大倍数,将会由于透镜焦距缩短和表面曲率过分增大而使形成的映象变得模糊不清。为了得到更高的放大倍数,就要采用显微镜,显微镜可以使放大倍数达到 1500~2000 倍。
放大镜成像中,物距a(公式图中的u)、像距b(公式图中的v),焦距f符合以下关系
即1/b+1/a=1/f
由于像为虚像,所以b会在这里是负数;
2、头戴式眼镜成像原理
如上图,根据上述内容,焦距需要比物距大,而一般眼镜物距在5-7cm,我们设透镜焦距f为70mm,设屏幕物距a为55mm,根据计算公式的到b=-1/(1/f-1/a)=256.6mm,正好是明视距离左右。而由于现有的眼镜一般都不可调整屏幕距离,故a基本固定,可换透镜来调整f实现虚像距离的变换,对于近视,像距需要变短,f需要增大,一般选择较薄的透镜,对于远视则选择较厚的透镜。另外,在几个参数的调整中,基本都是几毫米的微调,需要权衡虚像距离过大(放大倍数大)而带来的像素颗粒感问题 和 虚像距离过近而带来的不够明视距离、视野较小等问题。
所以这时候,你会明白文章开头的一段话:
戴头盔眼镜时,视线将一直持续聚焦在25cm-50cm处,无法移动,并且视野里全部是电子显示屏,时间长后眼部肌肉会极度疲劳,想象一下你双眼距离电视屏幕半米以内一直不动……
另外,光场成像我的理解就是,装置直接向眼镜投射(经过透镜阵列或其他技术)真实光场信息,这个光场信息你可以理解为现实世界里充满的光线集合,人眼也是通过透镜焦距的变换而将不同的光束聚焦在视网膜上,但其实射入眼中的光场信息并没有变化,是全息的,只是人眼用焦距进行了选择而已。
James Blaha患有先天性斜视,也就是我们经常说的斗鸡眼。在他小时候尝试过佩戴矫正器以及枯燥的视力训练,但最终以失败告终。长大后,一次观看3D《阿凡达》的经历使他的生活有了改变,这是他第一次看到有立体感的东西。2013年他加入了Oculus VR虚拟实景开发计划,两年之后,他开发出了“VIVID-VISION”软件。这款软件利用VR装置的自动可视角调节以及亮度调节来对视力进行校正,而且过程不再如传统手段一样枯燥无聊,通过这个软件,James Blaha也获得了正常的视力。
ae有个全景预监插件,可以在做全景视频的后期的时候随时方便的带着头显来看结果是否正确。
适配手机屏,调瞳距的工作我们是完全自己做的。因为我们团队的技能树长的相当的歪,简直就是歪脖老榆树,所以做app都是相当于先会有一个pc版本核心,而且我们自己有套自用的成熟的引擎框架,所以干脆一不做二不休,刷刷几下搞定,pc上写成服务器端,手机上写成客户端。然后戴着cardboard夹着手机,手指在pc的键盘上用快捷键调参数。这样可以快速的让好多人自己找找舒服的瞳距,最后的这位置肯定是多人看着舒服的平均位置。
瞳距适配问题,如果你是没开发能力的团队,那么ae插件加obs加手机上vlc的组合恐怕是最快的办法。这是我日月神教的不传之秘,今天被迫说出来是要被雷劈的。
鉴于全景视频实际上尺寸都很大,做后期要的更大,因此从效率上好的工具当选nuke,只是我孤陋寡闻,只知nuke有做立体电影的相关插件,没听说有全景插件,但这本身对nuke一点都不难,所以应该很快会有厂商出插件。有能力的朋友自己开发应也很容易。
最后,至于非拍摄元素怎么加的问题。我提示一句,vray里全景相机的那个墨卡托投影的参数,和几个主流全景拼接软件的,是一样的。啊……………今天告诉你们地球人的秘密太多,母星已经强令我立刻回去了……再见…
手是人类最完美的工具,手势是人类自然而然的行为,无需学习
对于VR游戏的开发与普及来说,手势识别意义重大:
天然的人机交互方式使得VR游戏的操作门槛降低,扩大了VR游戏的用户群体,无论是否为游戏爱好者,都可通过手势操作轻松上手。
其次,手的精细结构决定了人能实现多样的手势变化、拥有较高的自由度,运用到VR游戏上则大大增加了游戏的可玩性——与以手柄为依托的交互方式相比,手势识别能够以更简单的方式达成更多复杂的、更接近与真实生活的指令,比如抛篮球、挥拍、握手、抚摸宠物、推箱子等等,同时也为VR游戏的开发提供了更多可能。
最后,也是最核心的一点,即手势识别拥有虚拟现实的“基因”,能发挥VR的独特优势。虚拟现实的独特性在于沉浸感,除了360°全景环境的运用、光影音效,还需相应的交互方式加以配合。手柄、键鼠、触摸板一类的交互方式不仅限制了游戏内容,更阻碍了身临其境般的游戏体验;手势识别则能与其他因素发挥协同作用,共同营造沉浸感。
目前,手势识别技术在VR上已初步实现,就国内市场而言:
前不久暴风魔镜联合全球手势技术领先的Leap Motion,带来全球首款支持手势识别的移动VR设备暴风魔镜5 Plus,同时暴风魔镜也对准游戏内容资源发力,与Hanbitsoft等国内外多家游戏公司达成合作,其交互方式的提升与内容层面的开发为“爆款”VR游戏的产生提供了基础。虽然目前现象级的VR游戏还未出现,但当它出现的时候,必将带来VR用户的突破式爆发和普及。
近日在TechCrunch上海上刚刚展出的HandCV基于单目摄像头的手势识别交互系统,深度适配VR/AR环境。不同于其他手势识别技术,HandCV凭纯软件算法,使单目摄像头(普通摄像头)也可识别手势,这将会成为手势交互的技术布道者,让用户在不付出额外的成本前提下,能体验到手势交互比现有的头部控制光标交互更适合移动VR的交互操作,更自然,高效,方便。HandCV可在手机/平板/PC等应用场景实现手势交互,即对着手机前摄像头捏捏空气即可完成指令。
国外市场中:
Oculus VR已收购以色列手势识别技术开发商Pebbles Interfaces,Pebbles可以让用户在虚拟现实显示屏中看到自己的手臂和手。而在其他一些技术中,用户不能“看到”他们的身体。Pebbles的技术可以显示像衣服、伤疤和手中物品等东西。
2. 同样被Oculus收购的Nimble Sense摄像头是骨骼追踪摄像头(skeletal-tracking camera)和激光的结合体,基于PMD技术芯片,会获得并追踪人体的骨骼运动,它可以让用户在虚拟世界中模糊地看到自己的身体。Nimble Sense就有点像Kinect,只是会更小。该设备通过一个3D打印的接口直接连到最新的Oculus Rift DK2上。
….国外目前有很多做手势识别技术的公司,就不一一介绍了
实现移动,需要定位。惯性不准,光学可以,但技术难度非常高,全世界没几家能做。至于手柄,过渡形态,很正常。要带动补设备,也很正常,有就不错了,全世界也就那么几家能做的。
古龙曾经在书里写过,有人的地方就有两个古老的职业:妓女和杀手。虽然这句话未必全对, 但性工作者确实始终存在于人类历史进程之中,远早于文字记载之前。读者老爷们每每翻墙要用的“Porn”一词来源于两千年前的古希腊语,用来形容最低贱的奴隶性工作者,但当时的希腊性工作者总体来说是比较高尚的职业,不乏供职于神殿中的性工作者;而在东方,史书上记载妓女最早的记录是齐国管仲设立“女闾”这一官妓职业,在此之前学者也怀疑殷商时期也有“巫娼”的可能性。当然,更远古时期的母系氏族时代男性同胞的日子更惨烈,男性工作者极有可能还要负责接待女性之外的男性,提上裤子后还得出去负责打猎,与野兽搏斗。
时至科技发展的今日,色情行业依然没有离我们而去。刨去色情的外壳,本质是个“性”的内核,男女都摆脱不了对“性”的需求。而人类之所以为人类,便在于人类能够抑制自己的天性,当我们偶尔抑制不住天性时便把“性”欲寄予色情,有需求就有产业,色情行业也就运应而生。
黑猩猩善用“一炮而和”,可见“性”远在人类社会形成之前便已存在
随着人类科技的进步,人类已经将色情和暴力跳跃到影像和游戏领域,游戏和色情行业有一个共同点,都根植于人类最原始的欲望而得以发展,两者立足点或许不同,但却时常共患难在一条船上。VR,即虚拟现实技术,如今这个未成年的技术宅小伙子必须要和一个花枝招展的风骚御姐同坐一条船。
丨 虚拟现实必经的尴尬之路
十八世纪末电影技术问世,虽然前所未有的影像技术让整个西方文明为之轰动,1895年至1912年的电影产业并不被广大社会所接受。随着时间推移,观众对电影这种新科技的兴趣日益减少,电影票价也比其他娱乐方式便宜不到哪里去,人们与其花这笔钱去看黑白无声的照片合集,倒不如去看一场实打实的歌剧或者拳赛,这段时间电影事业发展并不理想。虽然早期电影大师们例如卢米埃尔兄弟等人的不断努力之下,旅游片、纪录片和喜剧片的黑白默片初步进入了市场,但也只能在歌舞游乐场内播放。而直接将电影带到中下阶层市民的功臣,却有色情电影人士的功劳,尽管这些电影人的目的并不单纯:拍一些色情小电影,赚中下阶层市民的钱。当时的纽约时常有这种场景,经过几日苦劳的工人们会在发工资这天抠出来几个子,跑到小巷子里买张电影票,在糟乱的小剧场内抽烟喝酒,观看着一些诸如神父和修女的禁断故事之类的黑白默片。在每秒16画格劣质胶片的画面灯光闪烁中,每个观众都在幻想和色情片里的女主角发生的一切。
最终阳春白雪和下里巴人的市场结合,开启了美国1920年代后的默片黄金时期,多么励志的一个故事。
就像当年人们躲避电影里的火车一样,大众对待新玩意总要适应一段时间
VR技术目前就处于这么一个尴尬的地步。触乐网曾经对业内诸多大佬做过调查,果不其然大都对短时间虚拟现实游戏的前途并不看好。玩家也要戴上一个不能随便乱动的昂贵头盔,然后玩一些以随便乱动见长的游戏;外部环境也过于噪杂,内部依然需要发展时间。VR提供的沉浸体验概念虽然美好,但任何新技术的诞生都要经过质疑阶段。
读者老爷们不禁要问,看片呢?
丨 色情行业保证VR的生命力
那我们看看“性”产业有过关系的朋友们日子过得如何,色情产业链虽然拿不上台面,依旧不可否认产业大都混得还行。
在正规合法的色情行业的统计数据中,南非世界杯期间,南非政府准备的100万份避孕套战备资源被提前用光,为了预防当地性病传播,英国紧急支援了4100万份避孕套;日本色情行业占据名贵酒水市场巨大份额,2002年酒水协会要求政府停止整顿红灯区,最终35个红灯区只减去了7个,28个红灯区表示感激,交出了完美销售成绩。以及今年是巴西奥运会,当地妓女协会则聘请了海量英语老师来培训性工作者,以达到里约热内卢欢迎你的效果。
由于用户都是大男孩,雄性激素也与性欲共生,造成了电子游戏行业和网络色情行业的用户较为重合,全球知名的色情网站Pornhub的副总裁甚至开玩笑说:《辐射4》发售当天我们网站掉了10%的访问量(2013年Pornhub每小时访问量168万次、一年约为147亿次),并在之前Pornhub十分热切的宣布在2016年实现虚拟现实对接服务。
已经有诸多成人网站预计在今年开放VR对接,还有少年你胸肌真好
由于这次VR技术在色情行业的出色表现,诸如西班牙、日本、美国等传统色情行业巨头为了争夺市场布局,已经投入了顶尖的人才班底,很多我不知道名字的国际动作巨星纷纷出演。不负责任的预测下,到时不少国内厂家只能做莎士比亚的忧伤,望洋兴叹,痛斥国内资本炒作VR的乱象,然后默默的关上门打开电脑买了个翻墙软件。说来也是,色情行业也保证了国内翻墙软件制作者们的收入。
其实“VR元年”的说法并没有错,他们只是看错了地方
有人的地方便有“性”产业,有如此强力的队友在身边,VR产业是想输都难。
丨 蛋定一下,还是得回来聊游戏
强调这一点,是以防读者老爷们提前认为虚拟现实仅仅就是个看片的玩意。虚拟现实游戏以“现实感”作为卖点,但依旧受制于技术和现实条件。即便该电子产业完美遵循摩尔定律发展规律,也需要几年时间才能见到成效。而文字冒险类游戏一直是低技术条件下的游戏前景开拓者,并且能够包装升级为成人游戏,而成人题材又是VR技术所擅长的。按照传统,提到成人游戏就不得不提到日本。
日本游戏业因为其独特的文化背景,相较于欧美游戏制作圈子里直男们在成人题材上畏畏缩缩,日本人对于新平台上进行“性”相关创作上从不手软。在PC电脑刚进入游戏平台行列之初,即便当时的PC技术与传统游戏机十分不融合,日本人就已经凭借在CG等美术技术上的绝对优势,做出了《兰斯》、《电脑学院》、《同级生》等在galgame历史上有重要地位的大作。从虚拟现实的技术正式进入到传统游戏领域,日本游戏圈故技重施。不同的是,在VR领域带头探险的不是传统的成人游戏公司,这次担任旗舰的是索尼。
真实女友《夏日课堂(Summer Lesson)》
如果以往的成人游戏公司的做法是开妓院,索尼要做的就是开青楼。 《夏日课堂》是索尼虚拟现实游戏计划:“代号墨菲斯”中的笔头游戏,铁拳项目组亲自开发,主创之一玉置绚式表示:用VR去做《铁拳》这种游戏的想法无疑是错误的,大家又都在做宇宙题材游戏,那我不如做一些生活相关的游戏。性相关的VR游戏一直难进入大雅之堂,但这次索尼良好的处理了当中的细节问题,在御宅族群体之间投放了一个“买买买”的潘多拉魔盒,把“粉红色类型游戏”拿到了台面之上。
不论《夏日课堂》的市场结果如何,只要该游戏成功模拟了人与人互动的沉浸感,那么VR游戏就能够跳出太空射击等游戏的类型限制,再过三四年市面上就不再是只有打飞机和“打飞机”之类的虚拟现实游戏。 与此同时,依然有很多开发团队尝试利用VR尝试其他创作,除了尝试制作适用于VR操作的RPG,也有一些属于新领域的游戏类型。
FPS之父、火箭队队长约翰·卡马克曾经在说过:“FPS就是游戏类型中的A片”,自己做游戏更要达到玩家的“本我”(人类最原始人格),即让玩家无杂念的状态下,发自本能的去获取乐趣。在80年代PC游戏质量还在饱受嘲笑的时候,卡马克便跳出主机传统思维上的二维限制,利用PC的优势开创了第一人称的三维游戏,对比PC,VR潜在的游戏优势则更高。有意思的是,多年后由他转战到VR领域,担任CTO的Oculus却成了成人色情电影的首选设备。新年新期望,期望愿这帮人能够做出更多新玩意出来。
虚拟现实是用户可以与虚拟环境进行人机交互,将被动式观看变成更逼真地体验互动。360度实景、虚拟动画漫游已在网上看房、房产建筑动画、虚拟楼盘数字楼书、虚拟现实演播室、虚拟现实舞台、虚拟场景、虚拟写字楼、虚拟营业厅、虚拟商业空间、虚拟酒店、虚拟现实环境表现等诸多项目中采用。
虚拟现实是计算机与用户之间的一种更为理想化的人机界面形式。与传统计算机相比,虚拟现实系统具有三个重要特征:临境性,交互性,想象性。建筑设计师可以运用虚拟现实技术向客户提供三维动画虚拟模型,让客户有种身临其境的感觉。
那么,什么是虚拟现实互动技术呢?简单地说,就是人们利用计算机生成一个逼真的三维动画虚拟环境,通过自然技能使用传感设备与之相互作用的新技术。它与传统的模拟技术完全不同,是将模拟环境、视景系统和仿真系统合三为一,把操作者与计算机生成的三维虚拟环境连结在一起。操作者通过传感器装置与虚拟环境交互作用,可获得视觉、听觉、触觉等多种感知。比如,计算机虚拟的环境是一座楼房,内有各种设备、物品,操作者会如同身临其境一样,可以通过各种传感装置在屋内行走查看、开门关门、搬动物品;对房屋设计上的不满意之处,还可随意改动。
虚拟现实技术开辟了富有发展潜力的新领域,它会随着时间的推移日臻完善,在房地产三维动画领域的应用将会越来越广泛,发挥的作用也将会越来越大。
在虚拟现实(VR)这样一个新兴产业里,获得了最多注目的自然是明星公司Oculus。很多人都体验过Oculus Rift,知道VR头显会是一种什么样的体验。但是由Valve和HTC合作而开发的Vive,就没有那么多人体验过了。最近笔者有幸接触到了HTC Vive,尽可能的向大家解释Vive到底在体验上,与Oculus有何区别,以及它有什么过人之处。
说到Vive就不得不提到Valve。核心游戏玩家都对Valve的大名如雷贯耳:他们开发了《半条命》(Half-Life)系列,《反恐精英》(Counter Strike)系列,《传送门》(Portal)系列,以及《Dota 2》。但是这点就不是那么多人知道了:Valve同时也是VR产业的技术先锋。
Valve是一个特别有创造力的公司。这可以部分归功于Steam极度盈利,Valve没有业绩压力。在Oculus的早期Valve就已经介入并且帮助Oculus解决了很多技术难题并且让自家游戏(《半条命2》)支持Oculus,可以说Valve实际上是跟Oculus一样的VR产业先锋,而且在某种意义上来说他们的技术更加先进。后来Valve停止了和Oculus的合作,转向HTC,推出了现在我们看到的HTC Vive,以及Valve独家的VR定位技术Lighthouse。Lighthouse才是HTC Vive相比于其他VR头显的鹤立鸡群之处,在这里需要好好解释一下Lighthouse的基本原理。
头动跟踪是VR头显非常重要的技术指标。要做到头动跟踪,最传统的方法是使用惯性传感器,就像我们每日都用的智能手机那样。但是惯性传感器只能测出转动(绕XYZ三轴转动,称之为三个自由度),无法测量出移动(沿XYZ三轴移动,另外三个自由度,合起来称之为六自由度)。另外一点,就是惯性传感器的误差比较大——想要VR头显的误差达到理想水平,可能需要洲际导弹上的惯导系统。
所以说更精确和自由的跟踪头部运动,需要额外手段的辅助。
这就是Lighthouse的基站
Vive没有采取通常的使用光学镜头和马克点的定位系统。它使用的这套定位系统叫做Lighthouse,由两个基站构成:每个基站里有一个红外LED阵列,两个转轴互相垂直的旋转的红外激光发射器。转速为10ms一圈。基站的工作状态是这样的:20ms为一个循环,在循环开始的时候红外LED闪光,10ms内X轴的旋转激光扫过整个空间,Y轴不发光;下10ms内Y轴的旋转激光扫过整个空间,X轴不发光。
动图:高速摄影机下的Lighthouse基站
Valve在头显和控制器上安装了很多光敏传感器。在基站的LED闪光之后就会同步信号,然后光敏传感器可以测量出X轴激光和Y轴激光分别到达传感器的时间。这个时间就正好是X轴和Y轴激光转到这个特定的,点亮传感器的角度的时间,于是传感器相对于基站的X轴和Y轴角度也就已知了;分布在头显和控制器上的光敏传感器的位置也是已知的,于是通过各个传感器的位置差,就可以计算出头显的位置和运动轨迹。
从理论来讲,Lighthouse的精度依赖于系统的时间分辨率。这也就意味着,光敏传感器的分布之间需要一定的距离,设备不能制造的太小。光敏传感器本身也有一定宽度,如果传感器“挤”在一起,间距达到了传感器本身的宽度量级,那么测角本身就会出现误差了。Lighthouse具体能支持多高的测角精度,Valve并没有给出数据。同时,Valve也表示,需要至少5个传感器才能够保证一个刚体的6自由度跟踪。
这个系统有很多优势。第一条是其需要的计算能力非常小。一个光学系统需要进行成像,然后程序就需要通过图像处理的方法来将成像中的马克点分辨出来。成像的细节越丰富,需要的图像处理计算能力就越高。所以红外摄像头比单色摄像头简单,单色摄像头比彩色摄像头简单。Lighthouse使用的仅仅是时间参数,那么它就不涉及到图像处理,对于位置的计算在设备本地就可以完成。
第二个优点是其延迟也很小。计算能力需求高就意味着延迟会高:图形处理的大量数据要从摄像头传输到电脑中,再从电脑传输到头显上,就会增加延迟。而Lighthouse可以直接将位置数据传输到电脑上,省略了从摄像头到电脑的高数据传输的步骤。
光圈科技提示您:Lighthouse需要两个基站
所以Lighthouse造就了目前最好的VR体验。Vive的头动跟踪和手柄跟踪都非常精确,延迟极低,用户甚至可以做出将手柄抛来抛去的动作。就个人体验而言,Vive的头动和手柄跟踪的精确程度已经让人真的产生了“这就是现实”的错觉——你会不自觉的对你在整个环境中所能做到的事情产生更高的期望,比如大动态的动作,试着去伸手够到远方的物体,等等。在这种情况下,Vive所默认的只有手柄的交互体验就会显得十分不自然,在虚拟现实中的身体感知就是十分迫切的了,而全身动捕在这里大有可为。
动图:Lighthouse基站的转速很高,震动不小
除开Lighthouse,Vive作为头显本身体验也不错。屏幕分辨率很高,纱窗效应十分不明显——用户需要有意识的注意才能够注视到像素点。Vive使用的是菲涅耳透镜而非Oculus用的球面镜,优点是色散低,所以没有Oculus那么明显的色散补偿效应,缺点则是透光率低,开发者自己开发的应用需要调很高的亮度才能在头显里看起来正常。另外使用菲涅耳透镜的一个缺点是:对佩戴者的视点要求很严格,稍微有一点点的错位,看上去就一片模糊。而Oculus Rift的普通球面透镜允许一定的错位。
Lighthouse并不是没有缺点——可以说,就现在所接触的设备而言,Vive目前并仍然是开发机状态,在某些基本问题上HTC仍然需要对硬件进行改进。Lighthouse的两个基站里有旋转部件,所以其可靠性尚待检验;基站本身的安装和校准的要求实在是相当精密,对一般消费者而言,门槛过高。作为VR从业者,我们仍然前前后后花了差不多两个下午的时间才真正将Lighthouse调试安装完毕,达到精密完美的状态。而且,高速旋转的部件带来了基站的震动——这种震动会导致跟踪变得不精确,手柄经常出现抖动和跳变的情况。需要将基站固定的十分牢固,才能够获得比较满意的效果。而且,基站震动久了就会变松,用户需要时不时的重新固定。
头显和手柄上都分布了数十个光敏传感器
设备本身也有改进余地:头显本身有点重,使用可以伸缩的织带固定,所以头显的整个重量都压在脸上,佩戴不是很牢固。留给鼻子的空间太大(照顾欧美人的脸型),戴正了以后还是可以明显感受到外界的光线。手柄本身的材质看起来也十分脆弱而廉价,让人担心会不会很容易就把它磕碰坏掉。这些问题并不是不能解决的,比如基站安装和校准的问题,就原则上可以通过更加精细的说明指导来解决。笔者希望HTC能够在消费者版公布的时候解决这些问题并且推出更加完善,更加对用户友好的Vive。