雷达是一项近百年历史的技术,它在现代计算和电子产品中的用处远比任何人想象的要大得多。
它被添加到灯泡中,以帮助检测是否有人跌倒并且无法站起来,并于几年前在谷歌的 Pixel 4 Android 手机中引入,以实现基于手势的无触摸活动。
然而,现在,谷歌 ATAP 的研究变得更加积极,并使用无线电检测和测距技术来检测人、他们的动作、方向、相对于传感器的位置,以及最重要的是,这种运动和交互的意义。
一个新的网格
周二,负责研究可穿戴技术和 Pixel 4 中的 Soli 雷达的谷歌 ATAP 小组公布了其最新的 Soli 雷达研究项目,该项目专注于与雷达系统的非语言交互。
在 YouTube 上的一段视频中,研究人员解释了他们如何使用 Soli Radars 网状网络(可以嵌入到 Google Nest 等设备中)来检测人们在设备周围和附近移动时的情况。
“环境、具有社会意识的设备”使用 Soli 雷达、机器和深度学习来理解我们的行为意味着什么。从挥手、转头、与设备的距离、我们经过它们的速度,甚至我们的身体相对于设备的方向,一切都会告诉系统我们的意图。
“我们受到人与人之间互动方式的启发。作为人类,我们无需说一个字就能凭直觉相互理解。我们从社会线索、微妙的手势中汲取灵感,我们天生就能理解并做出反应,”Leonardo Giusti 说,视频中的 Google ATAP 设计主管。
明确的目标是让计算机理解我们,就好像它们更像人类一样。
雷达传感器帮助设备(连同那个人工智能)了解它们周围的社会环境,然后采取相应的行动。
在视频中,他们展示了不透明的屏幕,当人们瞥一眼他们时就会注意到。他们可以分辨出故意全神贯注于屏幕的人和路过时只是瞥一眼的人。在一个例子中,一个白色的小屏幕迅速展示了雨和一把雨伞,提醒离开的人,也许他们应该拿一把雨伞。
听到研究人员将计算机附近描述为“它的个人空间”,这有点有趣。即便如此,这个想法很明确,配备 Soli Radar 的计算机可能会对接近一个人的反应更像另一个人,而不仅仅是一台计算机。它可能会感应到您的接近并启动,而不是等待您触摸键盘将其打开。
“方法”实际上是团队新的交互原语之一。其他是“离开”、“扫视”和“通过”。设备的动作将根据它检测到的运动原语而有所不同。
“我们的技术使用先进的算法,包括深度学习,来理解人们微妙肢体语言的细微差别,”谷歌 ATAP 人类交互负责人 Eiji Hayashi 在视频中说。
这些细微差别包括注意力集中的头部方向,但这也可能意味着 Soli 雷达系统可能知道你什么时候抬起头来表示“我不明白”。
使用雷达而不是光学传感器进行意图检测的一个好处是,雷达不会“看到”任何东西,也不会收集图像。他们只是使用无线电波来构建运动、运动和位置的网格。由软件来理解它。
尽管一些雷达技术已经应用于消费电子设备,但谷歌的 ATAP Soli 雷达项目还远未实现产品化。也许这就是为什么启用雷达的未来听起来非常像 23 世纪的原因。
“这些设备旨在以一种安静、尊重的方式从后台迎合我们,”谷歌 ATAP 交互设计师 Timi Oyedeji 在视频中说,“你可以获得这些温和的提示,并进行有益但不突兀的交互。”
领取专属 10元无门槛券
私享最新 技术干货