发布网友 发布时间:2022-04-22 03:24
共2个回答
热心网友 时间:2024-03-30 21:14
智东西(公众号:dxcom)
文 | James
今年6月召开的苹果全球开发者大会(WWDC)上,苹果发布了几大平台的下一代操作系统,其中包括iOS 14、iPadOS 14、macOS Big sur、tvOS 14以及watchOS 7,并于7月正式推出了公测版系统。即将进入秋季,苹果也将在近期向用户推送几大操作系统的正式版。
▲iOS 14界面
智东西记者体验iOS 14已经超过1个月的时间,近期也想聊聊iOS 14究竟有哪些我们不太容易发现,用上了就回不去的那种更新。
一、新增翻译APP 设备端翻译比线上更快
iOS 14的重大更新之一是就是为iPhone加入了翻译APP,亲测同样装有iOS 14的iPod touch(第7代)无法安装翻译APP。在之前,如果和外国人对话又听不懂对方在说什么的时候,我会很自然地打开谷歌翻译或者iTranslate这样的翻译软件,基本不会让Siri来翻译。
这是因为此前版本的Siri只能同时识别一种语言,无法用于对话翻译。而在iOS 14中,新加入的翻译APP,则可以直接翻译两个人的对话。如果此时将屏幕横过来,就会进入交谈模式,左侧显示正在说的话,右侧显示翻译后的语言,并播放出来。
据了解,在这个过程中,翻译APP使用iPhone的设备端机器学习技术以及Apple神经网络引擎,让两人之间的交谈听起来更加自然。
实际使用过程中,可以在设备联网状态下在线翻译,同时也可以提前下载语音包,支持无网络状态下离线翻译。
▲翻译APP中法语翻译中文
离线翻译的过程中,翻译APP也使用了设备端机器学习技术,让翻译更加准确。
另外在使用中我还发现了一个小细节,设备端离线翻译的速度更快。在离线的设备端模式下,如果说一个短句或一个词语,基本话音刚落手机就能翻译出结果;如果说一个长句,翻译和识别的时间稍长。
但是如果联网线上翻译,虽然在遇到生僻词语的时候翻译可能会更准确,但是整体翻译时间都比较长。即便在网络通畅的情况下,一个长句的翻译时间也可能会超过10秒钟。
在支持的语言上,目前翻译APP一共支持11种语言,包括英、法、德、意、日等常见语种。
在iOS 14中,还有个重大升级就是Siri。如今,Siri已经发布9年了,但是我们在使用Siri的时,还和9年前没有多大差别,问天气、问路、发条消息、打个电话……这些事9年前的Siri也能做到,难道苹果没有升级吗?
▲iOS 14中的Siri不再占用全屏幕
实际并非如此。多年之前,罗永浩曾在一次发布会上说过:“在人工智能没有实现之前,任何智能语音都是不能冒充人工智能的。”所以,苹果在两年前为Siri加入了快捷指令,允许用户对Siri能做的事情进行自定义。
而在今年,Siri自己的“知识储备”也正在快速进步。据了解,如今Siri所知道的东西已经是三年前的20多倍,我们可以问Siri更复杂的问题。
在iOS 13中,Siri最喜欢的就是在网页中搜索内容,如果问Siri一个不常见名词,会直接开启网页搜索。而这样的搜索效率非常低下,经常找不到目标答案。
▲iOS 14中Siri知识更丰富
而在iOS 14中,Siri不仅可以在网页中搜索内容,还能通过Siri Knowledge积累的知识,将最关键信息呈现出来。
由于机器学习技术取得的进步,过去几年中,语音识别、自然语言理解和文本转语音 (TTS)等Siri核心要素,在准确性方面都有了重大提升。
例如,iOS 13与iOS 12相比,语音听起来就更为流畅,在iPhone XS以及更新机型中,从iOS 13.2开始,神经网络TTS就完全在设备端运行。
除Siri之外,和Siri功能相近的听写功能在iOS 14中也有很大提升。键盘听写功能采用了与Siri相同的语音识别技术。利用神经网络引擎,Siri听写功能可以完全在设备端完成。
通俗点说,就是iOS 14可以实现设备端的语音转文字。
实际体验上看,设备端听写的速度更快,转化速度和人说话的速度基本一致,并且准确率较iOS 13有了很大提升。
三、小组件终于登上舞台 智能叠放不同APP
实际上,iOS 14还有一大变化,就是加入了小组件,让13年来始终如一的圆角矩形APP图标得以放大。据了解,小组件的目的还是为了向用户更直观地展示应用内信息,例如天气、音乐、推荐照片、当前地点等。
这些信息在之前的iOS版本中需要点按APP图标才能显示,同时大多也只需要一步点按就能查看到信息。iOS 14中,通过简化这一步骤,让信息直接呈现在主屏幕上。
可能有人会说,这项功能在安卓手机上早已实现,并非新奇。苹果同样意识到了这一点,允许用户创建小组件智能叠放。这项小小的智能叠放功能实际也利用了利用设备端智能技术,根据时间、地点和活动来呈现适当的小组件。
▲iOS 14中小组件智能叠放
例如,当我早上起床,智能叠放小组件就会展示当前的天气信息;当我到达一个不常去的位置,小组件会展示当前所在位置的地图信息,以防我迷路;当我晚上回到家中,小组件又会展示此前拍摄的照片,可以在晚上回忆照片中的美好时光。
四、辅助功能再变强大 轻点两次手机背面就能快捷操作
在iOS系统用中,苹果也为需要辅助才能使用手机的用户开发了不少实用功能。例如利用旁白功能,可以为视障用户朗读当前屏幕中显示的内容。
在iOS 14中,苹果让旁白功能更加强大。此前,可用于旁白功能的APP并不多,这是因为添加旁白功能需要开发者做额外的标记。
而在iOS 14中,苹果为了让更多的APP都支持旁白功能,开发了利用设备端机器学习的功能,即使某些APP没有正确标记旁白功能,也不影响用户使用。预计在iOS 14正式版推送之后,支持旁白功能的APP将达到百万量级。
▲我个人设置轻点两下手机背面锁定屏幕
在iOS 14的辅助功能中,还允许用户轻点手机背面,启用屏幕滚动、音量调节或者打开控制中心。由于iPhone手机的背面并没有专门设置传感器采集人的轻点动作,需要利用手机的加速度计完成判断。同样是 利用设备端机器学习技术和神经网络引擎,可以判断用户轻点了两次还是三次手机背面,以触发不同的操作。
背面轻点功能还能和Siri捷景联动,实现更多功能。可以在快捷指令APP中设置轻点三次打开相机, 轻点两次打电话给家人。
结语:苹果自研芯片助力实现设备端智能化
近两年,随着芯片技术的不断升级,苹果自研芯片的机器学习能力也在不断提升。
此外,苹果还在A13芯片的*处理器中加入了机器学习加速器。这些加速器为机器学习计算中经常使用的运算而设计,让更快运行矩阵乘法。专用加速器让*处理器处理矩阵数*算的速度最高提升达 6 倍,使得*处理器每秒能够处理超过1万亿次运算。
因此,设备端的机器学习才能得以实现。实际上,在这一个多月的iOS 14体验中,搭载A 13处理器的iPhone SE能够以更快的速度在设备端完成听写、翻译工作,Siri可以让我不需要随时拿起手机,智能设备正逐渐走向更加智能。
热心网友 时间:2024-03-30 21:14
必须要有对应的服务器允许手机端使用,服务商能够承担这个业务,那么就可以使用手机端了。