VXML
VXML是被用来创建语音对话系统,可以调用语音合成以及语音识别服务,可以用来记录语音录入和连线电话系统。创建 VXML 语音的主要目的就是用 Web 开发的理念来开发互动式的语音套用。VXML 提供了基于 Menu 和基于 Form 的两套框架,整合了语音识别和语音合成两个关键服务,使得语音套用的开发变得更为方便和快捷。
基本介绍
- 中文名:VXML
- 外文名:Voice eXtensible Markup Language
- 发展历史:论坛的发布VoiceXML 0.9版本
- VXML功能範围:输出合成语音输出语音档案
- VXML主要目标:把web开发方式带到互动式程式
Voice eXtensible Markup Language (VoiceXML),最初是由AT&T, IBM, Lucent(朗讯)和 Motorola(摩托罗拉)几个电信巨头创立的,目前已经广泛用于电信行业的套用伺服器和媒体伺服器互动上。
发展历史:
1995年AT&T研究院的Dave Ladd, Chris Ramming, Ken Rehor以及Curt Tuckey在头脑风暴关于网际网路会如何改变电话套用的时候,产生了一些新的想法:为什幺不设计这样一个系统来运行一种可以解析某种语音标记语言的语音浏览器,用来把网际网路的内容和服务提供到千家万户的电话上。于是,AT&T就开始“电话网路项目”(Phone Web Project)。之后,Chris继续留在AT&T,Ken去了朗讯,Dave和Curt去了摩托罗拉。1999年初的时候,他们分别在各自的公司迈出了语音标记语言规範实质性的第一步。因为他们的密友关係,这几家公司合作成立了一个VoiceXML论坛组织,IBM也作为一个创始公司加入了进来。
1999年3月至8月,这个论坛的一个小组发布了VoiceXML 0.9版本。
2000年3月,VoiceXML 1.0问世。
一个月后,VoiceXML论坛把1.0规範提交给了权威的World Wide Web组织(W3C)。
2000年5月,W3C接手了这个VoiceXML 1.0规範。
2001年10月,VoiceXML 2.0试验版问世。
2002年4月,最后一个版本的2.0试验版发布。
2003年1月,VoiceXML 2.0正式版发布。
VXML的架构模型:VXML的架构模型中包含以下几个主要组件:
1.DocumentServer(文档伺服器):由于编写VXML程式需要写一些定义互动流程的xml档案,文档伺服器就是用来接受终端(比如手机,固定电话)的请求,并根据用户输入产生一个xml文档,再由VXML解释器解析并执行下个流程。
2.VoiceXML Interpreter(VXML解释器):用来解析xml文档,执行与用户终端的互动。比如和文档伺服器配合重複播放语音,对输入进行验证等循环流程,等等。
3.VoiceXML Interpreter Context(VXML解释器环境,context虽然有上下文的意思,但是这里应该是VXML解释器工作环境的意思):可以通过解释器并行监视用户输入,并把一些用户特徵信息保存起来。比如,一个上下文监视某个流程出口并负责把用户带到高级个性化帮助;另一个上下文则监视用户修改参数如音量和TTS特徵等。
4.Implementation Platform(实现平台):由解释器和解释器上下文控制。实现平台的主要作用是在和用户互动过程中产生各种事件(比如用户输入,说话或连线断开)和系统事件(比如逾时)。
VXML主要目标:VXML设计的目的是为了把好的Web开发方式带到互动式语音程式,把这些开发者从低级的编程和资源管理中解放出来。
VXML功能範围:
输出合成语音(TTS)
输出语音档案
识别语音输入
识别DTMF输入
对语音输入录音
其它像呼叫转移,下线之类的电话功能。(Milano:VXML是没有电话呼叫功能的,要通过ccxml来控制)
难免有遗漏疏忽之处,望批评指正并完善!!!