首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苹果软体辅助使用新功能导入装置端机器学习

苹果公司(Apple)5月16日在官网发文,预览认知、视觉、听觉和行动方面的软体辅助使用功能,以及专为瘖哑人士或可能失去言语能力的人打造的创新工具,将于今年稍晚推出。

苹果指出,这些更新仰赖软硬体方面的进步,其中包括装置端机器学习,既可确保使用者隐私,也能拓展苹果一直以来为所有人打造产品的承诺。

在今年稍晚,认知功能障碍的使用者将可透过Assistive Access功能,让App和各项体验去芜存菁,留下最基础的核心功能,借此更轻松、独立地使用iPhone和iPad;瘖哑人士将能在通话和对话时,以Live Speech功能将打字化为语音。

可能失去言语能力的使用者,可以利用Personal Voice功能打造与他们声音类似的合成语音,与亲朋好友连结。使用者可以透过读出一系列随机文本提示,在iPhone或iPad上录制15分钟的音讯,以创造出一个Personal Voice。这项语音辅助使用功能利用装置端机器学习,确保使用者的资讯私密而安全。

针对失明或低视能的使用者,「放大镜」中的「侦测模式」带来Point and Speak功能,可辨识使用者所指向的文字并进行朗诵,协助他们与家电等实体物品进行互动。

苹果执行长库克(Tim Cook)表示,苹果一直都相信最棒的技术,就是为所有人而打造的技术。今天分享多项新功能,奠基于苹果长久以来在技术无障碍化方面的努力,让每个人都有机会能够创造、沟通,并做自己热爱的事。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230517A00SGR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券