2月12日,有外媒报道了苹果新的一项专利:新的头戴设备设计。在这项设计中,苹果使用了红外传感器获取图像。结合图像识别技术,这项设计可以给出食品的脂肪含量、新鲜度和类型。当然,图像识别中常见的建筑物识别、植物识别、动物识别它也是可以做到的。
(下图色阶表示相较设定温度数值的偏离量)
为什么不直接使用普通摄像头?
我们知道,图像识别技术并非新技术。而且,随着智能手机的普及,基于普通摄像头成像的图像识别技术日趋完善,高度成熟。相较之下,红外摄像头就要小众得多,图像识别技术的迭代工作要更繁杂,似乎使用红外传感器并不是明智之举。真的是这样吗?
事实上,在智能眼镜这条路上,曾经有一颗耀眼的明星陨落:谷歌眼镜(Google Project Glass)。
谷歌眼镜发布于2012年4月。此时的智能手机还处于上升期,大家对可移动智能设备的探索还抱有很大的热情,智能眼镜的出现并不意外。
这款基于安卓系统的智能眼镜设备具备和智能手机一样强大的功能,配有一块微型光学反射投影(HUD)屏和骨传导音响系统,完全可以胜任浏览网页、查看邮件、视频通话、查看地图、听歌等功能。并且,谷歌眼镜还有一项亮眼之处:声音控制拍照。谷歌眼镜搭载了500 万像素摄像头,可拍摄 720p 视频。
但也是可摄像这一亮眼的功能为谷歌眼镜带来的无尽的争议。试想,有一群人的鼻梁上架着一个只有几十克的摄像设备,不正视都不一定能发现的那种,那么我们是否还可以容许他们自由进出卫生间呢?我想,不用说卫生间了,就算是平常走在路上,在不知情的情况下被拍摄都会让人无所适从。出于隐私考虑,很多公共场合都不允许佩戴谷歌眼镜进入。
在隐私争议之外,还有成本高、分散司机注意力等问题。谷歌眼镜的研发已于2015年终止。
前车之鉴,后事之师。虽然说并非只是摄像头的原因导致了谷歌眼镜的失败,但作为最为人所熟知的智能眼镜失败原因,智能眼镜的后来探索者都在尽可能避免搭载摄像设备。
但毕竟很多功能需要视觉传感器参与,所以苹果一直在尝试其他类似视觉传感器的元件。在红外传感器之前,还有过智能眼镜搭载LiDAR激光雷达扫描仪的苹果专利传出。
(下图中色阶表示距离远近)
LiDAR已被运用在包括自动驾驶在内的多个领域,不需要图像传感器就可以获得景深信息,从而配合软件完成一系列功能。目前苹果已有手机、平板搭载LiDAR,配合软件可以做到较为精确的测量现实世界中物体尺寸和放置更为准确的AR模型等功能。
而这次尝试的红外传感器,在算法加持下,还可以判定食品新鲜度、脂肪含量,可以说是把实用性做到了极致。
你会考虑购买智能眼镜吗?
领取专属 10元无门槛券
私享最新 技术干货