最近,许多读者对如何设置siri的指定答案有疑问。有网友整理了相关内容,希望能回答你的疑惑。这个网站已经为你找到了关于siri如何设置指定答案苹果13的问题的答案,希望对你有所帮助。
全文共1850单词,预计学习时间6分钟
来源:weibo
作为iOS用户,你一天会对Siri说多少次?很多次,对吗?
人工智能和深度学习越来越根深蒂固,越来越多地用于开发虚拟个人助理。
今天,让我们学习如何使用它们来改善Siri的声音。
如果你是一个敏锐的观察者,你会发现从iOS Siri的声音听起来比以前更像人了。这是因为苹果正在深入挖掘人工智能、机器学习和深度学习技术,为用户提供最好的个人助理体验。
自iPhone 4S引入Siri,一直延续到iOS这个个人助理已经进化得更接近人类,并与人类建立了良好的关系。Siri回复用户的语音指令,结合语音合成和深度学习。
语音合成: Siri功能不可或缺的组成部分
来源:baike
语音合成基本上是人类语音的人工合成。该技术在许多领域都是完美的,包括虚拟个人助理、游戏和娱乐。在单元选择和参数综合基本模型方面取得一些进展后,深度学习越来越深入。
该技术集成到语音合成中,产生了一种叫做直接波形建模的新模型。有了这个模型,我们现在可以处理高质量的单元选择合成,并帮助使用参数合成来提高灵活性。
苹果利用混合单元选择系统的深度学习能力,为Siri提供最高质量的语音输出。
文本语音转换系统(TTS)如何工作
TTS该系统的工作原理是记录可能发生的人类声音,划分语音单元,并使用机器学习。
当可能出现记录时,人类的声音
创建虚拟个人助理文本语音转换系统的首要任务是记录人的声音。这个声音不仅要悦耳,还要让每个人都听得很清楚。
为了涵盖各种人类语音,需要在专业工作室录制约20小时的语音。几乎所有类型的答案都包括叙述指令、口述天气预报、讲笑话等。由于用户对私人助理的提问类型没有限制,因此不可能使用音频编辑。然后,处理这些记录下来的答案,让虚拟助理了解它们。
语音单元的分叉
人类录制的声音分为几个部分,然后根据收到的文本连接在一起,以创造完美的响应。优化特定设备的语音单元或与一系列设备兼容,需要分析每个电话的声学特性和语音节奏。
使用机器学习
虽然听起来像是另一个过程,但开发人员完全掌握一个包含重音和语调(节奏)的模块是相当困难和具有挑战性的。另外,对于移动电话来说,使用这个字符串的形式太复杂了。
随着机器学习的引入,这些挑战在一定程度上得到了解决。通过收集训练数据,文本语音转换系统可以理解这种模式,理解如何划分不同的音频元素,以提供类似于人类的自然输出。
苹果在改善Siri语音方面所做的努力
当苹果的工程师决定大力提高Siri的语音功能时,他们与一名女配音演员合作,用美式英语录制了20个小时的语音。这些100-200万个音频片段被用来训练深度学习系统。
接下来,工程师们让受试者从Siri以前的声音和新的声音中选择,以测试输出结果。大多数人更喜欢新的、自然的、类人的Siri语音。他们注意到,当Siri回答琐碎的问题,确认“请求已经完成”并提供其他导航指令时,声音显然从机器人变成了自然声音。
下图为AB主观听力测试结果:
此外,测试对象认为这个声音完全符合Siri的“个性”。iOS应用程序开发服务提供商正在研究该技术,以了解他们如何使用相同的技术来开发更多创新的应用程序。
当用户体验到Siri的新声音时
iPhone 8是第一款搭载iOS 苹果手机,Siri的新语音。iPad还将配备新的个人语音助理。苹果从未停止过技术实验,以发现新的可能性。随着Siri语音功能的改进,苹果目前正处于观察阶段,以了解终端用户的反应。
在实用性方面,人工智能和深度学习正在巩固其在虚拟个人助理和其他应用中的基础。由于人们的积极反应,这些技术的未来似乎相当光明。
期待未来的一天,Siri你可以用带有人类情感的语调与声音交谈。
留言点赞关注
让我们分享人工智能学习和开发的干货
如转载,请在后台留言,遵守转载规范
主题测试文章,只做测试使用。发布者:艾迪号,转转请注明出处:https://www.cqaedi.cn/fenxiang/47900.html