跟前代相比,Google 今年出的 Pixel 3 系列在处理人像拍摄时的表现要来得更好。考虑到两者用的都是单颗主相机的设计,所以改进大部分还是来源于软件。那说到底,Google 究竟做了些什么让 Pixel 3 的人像算法变得更强?今天他们就决定发文来解释一下。
在 Pixel 2 推出的时候,Google 是利用神经网络和相机上的相位对焦技术(后者主要是跟视差效果有关)来确定拍摄时处于前景的对象。但这套方案在面对变化不大的场景时就容易出错,而且在以小光圈进行拍摄的时候也比较容易发生问题。为了改善这些,Google 在 Pixel 3 上运用了新的神经网络,希望通过对象的常规形状、场景中不同点的清晰度等多项因素,来更准确地判断对象距离。另外在训练这套系统时,Google 也采用了一些创造性的办法。比如说他们曾做出过把五台 Pixel 3 绑在一起的「Frankenphone」,以同步记录深度信息,来消除光圈、视差方面的不足。
看到 Google 在 AI 上投入了那么多的资源,可见他们对单相机方案的决心是多么之大。当然啰,你也可以反过来想。Google 一直坚持这种小众做法的原因,搞不好也是为了探索算法的极限,从而秀出自己在人工智能领域的「肌肉」呢。
领取专属 10元无门槛券
私享最新 技术干货