美国时间10月15日,谷歌发布了已经被泄露完全的新款手机Pixel 4以及Pixel 4XL。
Pixel 4在发布之前,有诸多黑科技的猜测。其中之一,是谷歌引以为傲的神经网络算法,能够更好的捕捉星空,做天文摄影。
也许,这是谷歌从华为拍月亮的惊人“算法效果”中得到的灵感,或者,是华为效法谷歌,只是更加激进。
总之,在新的手机发布之后,的确有一批真香患者,前来捧场。
然后我看到了这样的比较:
夜空效果,在机身摄像头素质提高有限的情况下,谷歌选择了用软件来提升。优化图片,无非降噪+强化有效像素。这需要软件能够学习到,图片上哪些是噪点,哪些是有用的像素点。所谓神经网络的算法,大抵优势就提现在这里。
说实在的,即使是优化之后的效果,我也没看出天上的小亮点,有任何想象中星空的美感。
如果将前戏加进去,这张照片是手持10几秒在户外拍摄的,那就nb了。毕竟没有一个正常人类能够10几秒,像三脚架一样静止不动。
所以,pixel 4的背面,长得跟iPhone 一毛一样?
正面就很吓人,因为它有个超宽的脑门。
实际上,浴霸造型的Pixel 4手机,仅仅是背面跟iPhone 11 Pro系列有点像而已。Pixel 4只有两个摄像头,远摄和标准焦距,没有iPhone 11 Pro的超广角。
谷歌是这样解释的,“我们认为远摄要比超广角更具备实用价值。”
我不太同意。
虽然左下角那根手指,是iPhone 11 Pro系列超广最大的毛病,手指头总是进场,但是能够拍到以前拍不到的景象,还是有点屁用的。
借我司关爷的大裤衩用用:
能把裤衩拍全了,也是优势。
不过,Pixel 4的脑门大,也并不是全无道理。谷歌开发了雷达感应技术,可以隔空对手机进行控制。比如:在手机上方挥挥手,切换到下一首歌这样子。
可惜,技术还有些不成熟,偶有失误。而且人类的动作也没那么标准。在无从得知雷达感应范围的情况下,挥手之后的小动作,会让手机很迷茫。
在能够预见的未来,谷歌这款售价高达899的新款智能手机,我猜不会买的很好。黑五买一送一也是有可能的。
当然,国内的同学不买谷歌手机,核心原因不是没钱这么简单,而是“墙”的那点事。
昨天,有朋友看到我的11 Pro,说,这部手机拍照很好。
实话讲,啥叫拍照好呢?
对于大部分人来说,能够用眼睛感知到的效果,就叫做好。比如:拍得清楚。
在iOS 13.2beta版发布的时候,为了体验iPhone 11 Pro的神经网络计算,我第一时间升级了iOS,感受所谓的Deep Fusion有多神奇。
没有Deep Fusion之前,夜拍是靠多张图片叠加,找到正确的曝光参数,合成图片给你看。有了Deep Fusion之后,相机能够知道哪些地方应该清楚,会强化这些像素点。
我用iPhone Xs和iPhone 11 Pro拍了几张照片作对比。
那边是XS,那边是11,大家自己猜。
夜拍模式,确实比以前的手机有了极大的提高。手持3秒拍照,照片不糊,就是成绩。能拍得更清楚,光线更加符合当时的场景,那就更好了。
在河上的鬼影灯光,是手机镜头造成的光线反射,Deep Fusion下更加明显,这也是硬伤。大家都有,独iPhone更明显。
真正能够体现Deep Fusion对细节的描绘,应该看这张。
iPad Pao背后的墙面纹理,有非常明显的加强,更符合当时的实景。
不好的消息也有,Deep Fusion追求的是真实的效果。如果脸上有痘痘,皮肤不平滑,在夜拍模式下,细节也将无所遁形。。。
至于有人用iPhone 11 Pro去拍星空。我只能放一张老美博主在蒙大拿拍摄的Stunning Picture。
右边那张长曝光Sony相机得到的图片,才是我们想象中的星空吧。
不管怎么说,在拍照功能更加重要的今天,谷歌拿出来的产品,实在差强人意,不像是大公司的正经作品。
而看起来毫无创新的苹果,4K60P视频拍摄,夜景计算,后面几步反而走得稳了些。
待到iOS 13.2正式版发布,iPhone 11将会变得更香。
领取专属 10元无门槛券
私享最新 技术干货