Google 的新「深度」功能让 AR 体验更逼真

Google 过去两年来持续在为 ARCore 增添新功能,像是在 I/O 上推出的 Environmental HDR,就能靠着机器学习来判断环境光源的角度,并以此为依据为 3D 物件打上正确的光影效果。而现在,Google 推出再推出了一个 Depth(深度)API,靠着理解场景中所有物件的相对深度与前后关系,带来更拟真的场景。

Google 在今年稍早在搜寻中带来了部份动物的 3D 建模,用支援的手机搜寻动物的名称(例如「猫」)的话,就会出现该动物的 3D 模型选项,让你可以将其丢进眼前的 AR 世界中。然而,这动物进入 AR 世界后,虽然大小和位置都是正确的,但却会一直保持在「前景」,不会被更近的物体所阻挡,也就是说你伸手过去的话,就会发现自己的手在模型之后,立即破坏了 AR 产生的错觉。现在在启用了 ARCore 的 Depth API 之后,物体间的遮蔽就可以被正确地展示,让 AR 物体更拟真了。

除了简单的遮蔽之外,这个技术也可以正确的了解现实世界中的物体构造,让 3D 物体可以和现实物体正确地进行互动。像是在一个示范用的「食物大战」游戏之中,你丢出去的 3D 物体会在正确的距离「撞」到现实中的物体,并做出正确的反应。这让 AR 世界可以更符合现实世界的物理特性,进一步增加沉浸感。

目前所有支援 ARCore 的超过 200 款手机都能启用这项特性,也不需要特殊的感应设备,只要普通的 RGB 相机就可以,只是有专门的感应器的话还能提供更加精准的深度判定就是了。但在软件方面则势必还要再一些时间,现在除了 Google 自己的搜寻和一个合作的居家布置 App「Houzz」之外,其他的应用都还要等开发者将 API 用上去才行了。

留下评论

Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124