未来的苹果设备可能会让您一目了然地选择文本字段

Apple 最新的凝视检测研究可能意味着未来的用户可能只需看一眼就可以选择应用程序或网站中的文本输入字段。

只要网站编写正确,Safari 等浏览器就能识别不同类型的文本输入字段。这就是 Safari 知道在一个中提供您的姓氏,而在另一个中提供您的电子邮件地址的方式。

但是,在每种情况下,您都必须单击该字段 - 或从一个到下一个选项卡 - 才能知道您在哪里。将来,你不会。只是看看,比如说,名字字段就足以至少在那里弹出光标,并可能开始为您输入文本。

“使用 Eye Gaze 选择文本输入字段”是一项新近公布的专利申请,涉及现实世界和Apple AR 中的设备。

该应用程序实际上可以互换地对待现实世界和 AR 设备。

“这些技术可以应用于台式电脑、笔记本电脑、平板电脑和智能手机等设备上的传统用户界面,”它说。“这些技术也有利于虚拟现实、增强现实和混合现实设备和应用......”

但是,存在一些关键差异。在 AR 中,执行注视检测的是头显,例如“ Apple Glass ”。

它可以通过放置在耳机中的传感器来实现,所以就在眼睛旁边。对于现实世界的设备,iPhone 或 iPad 需要在更远的距离执行注视跟踪。

“[在这种情况下] 光线分别沿着 [the] 用户的左眼和右眼的视轴投射(例如投影),”Apple 说,“并且可选地用于确定用户的注视方向和/或所谓的光线投射中的凝视深度。”

目前尚不清楚 Apple 是否建议设备不断扫描任何正在查看它们的人。但是,无论何时激活扫描,它都会寻找眼睛的特定区域,并确定“用户的注视方向和/或注视深度”。

通过寻找“用户瞳孔的中心,和/或用户眼球的旋转中心”,系统可以识别“用户眼睛的视轴”。所以它知道你什么时候在看它,它也知道它在屏幕上显示什么。

苹果表示,系统应该要求用户在激活之前寻找一些未指定的时间。就是这样,当您在 Apple Store 中走动时,您不会让每台 iPad 都跳起来填写订单详细信息。

该专利申请归功于三位发明人,其中包括 Earl M. Olson。他之前的工作包括在 AR 环境中确定虚拟对象相对于真实物理对象的位置。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢