热搜词

Animoji其实是苹果的未来技术演示而不是搞笑小工具

来源:互联网 2017-11-17 10:19

注:文章转自新浪科技

昨天一些国外媒体发现,即便挡住iPhone X的原深感镜头,Animoji这个特色功能依旧可以使用,由此认为Animoji并不需要iPhone X也可以使用。今天国外数码站imore给出一些解释,详细的谈到了Animoji的实现原理。新浪数码做了编译并加入了苹果官网一些技术说明资料,写出这篇文章让大家了解这个功能。

在iPhone X发布之前,我有机会与苹果公司一块讨论它。我问过Animoji是如何实现的,得到的解释是前置的原深感镜头(TrueDepth)系统用红外捕捉一个脸部模型,然后使用A11仿生芯片上的神经引擎,以及前置镜头来持续持续跟踪和匹配使用者面部动作和表情。

Animoji是iPhone X独有功能Animoji是iPhone X独有功能

我当时没想太多别的,因为这个答案听起来很合理,在演示区也体验了它,而且苹果给开发者们公开了这个API接口。

但最近,对于Animoji是否真的需要iPhone X专用的硬件问题有了更多讨论。你确实可以盖上“刘海”上面的其他部分只留下前置镜头,Animoji也一样工作;但是,如果盖上了前置镜头,它就会停止。

所以结论就是Animoji其实并不需要iPhone X的特殊硬件? 只是苹果为了多卖机器做的软件限制?

误解的原因来自于实现方式:红外系统仅仅是定期地触发,用来创建和更新深度图像。之后用前置镜头持续捕捉动作和匹配表情。换句话说,覆盖红外系统,3D建模停止更新,或者随着时间的推移降低精度。但覆盖前置镜头,表情就完全不能捕捉到了。

对第三方App来说,实现的方式可能更多样。比如Snapchat照片分享应用,之前一直有很受欢迎的面部匹配滤镜功能。但当它支持了iPhone X的原深感系统后,能更精准的匹配面部表情,虽然你还是可以用同样的老旧匹配方式实现这个功能。

类似的功能之前Snapchat其实也有类似的功能之前Snapchat其实也有

类似的例子其实早就有,差不多10年前,iPhone 3G就有摄像功能,但只有15帧的水准;到了3GS,苹果将它提升到了30帧,这并不意味之前的功能不能用,只是画面更精确了。

苹果可以让老款iPhone创造类似于iPhone X的体验,但如果没有真正的原深感镜头做基础,他们将无法做到更精准的面部追踪和表情匹配。换句话说,苹果可以让iPhone 7或者8来实现Animoji,但如果没有新硬件做支撑,表现不那么惊艳,可能就不会有那么多人第一次见到它就觉得很神奇,然后很乐意跟人分享这个功能。如果苹果以后更新了Animoji的实现方式,让它更依赖于原深感镜头,那么这些新功能更不可能在旧硬件上实现,这会更加令人更失望。

所以你最好把Animoji看作技术演示而不是有趣的iMessage附加功能,苹果要通过它向开发者和用户展示真正的原深感镜头和A11仿生芯片,以及ARKit能做什么。

从这个意义上说,Animoji对老设备说“不”,只是开始,而不是结局。它蕴含了更多对未来的期待。

 

论坛热帖更多>