语音业务多系统融合技术研究与实现
- 格式:doc
- 大小:883.00 KB
- 文档页数:8
人机协同智能系统的研究与开发随着科技的不断进步,人们对人工智能技术的需求越来越大。
在这种情况下,人机协同智能系统应运而生。
人机协同智能系统是指通过人与机器之间的深度交互,人和机器各自发挥其优势,实现更高效、更便捷的解决方案。
在这篇文章中,我们将讨论人机协同智能系统的研究与开发,其中包括:人机协同智能系统的定义、设计原则、技术实现以及应用前景。
一、人机协同智能系统的定义人机协同智能系统是一种通过人与机器之间的紧密交互,将人类智能和机器智能相融合的系统。
这种系统的最终目的是通过人机协同,实现更高效、更便捷的解决方案。
二、设计原则在设计人机协同智能系统时,需要遵循以下四个原则:1. 目标导向:系统应该明确目标并专注于实现这些目标。
在这个过程中,人和机器应该相互协作,通过相互补充和支持,来实现更好的结果。
2. 用户中心:系统应该关注用户的需求和体验。
系统的设计和功能应该能够满足用户的需求,同时使用户能够更方便快捷地使用该系统。
3. 可持续发展:系统需要考虑到未来的发展和升级。
在设计中,应该优先考虑可扩展性和可维护性,并确保系统的可持续性和可靠性。
4. 安全性:系统需要确保用户的数据和隐私的安全。
在设计中,应该关注数据保护和安全措施,以避免出现数据泄露和网络攻击等情况。
三、技术实现在人机协同智能系统的实现过程中,需要使用多种技术进行支持。
下面列出几种核心技术:1. 机器学习:机器学习是人机协同智能系统的核心技术之一。
通过机器学习,机器可以根据大量输入数据进行学习,从而不断优化自己的算法和决策过程。
这种技术可以帮助系统更好地理解用户的需求和行为,并精准地为用户提供服务。
2. 自然语言处理:自然语言处理是一种用于分析和理解自然语言的技术。
通过这种技术,机器可以理解人类所说的话,并相应地作出反应。
自然语言处理可以帮助系统更好地理解用户的需求和指令,从而提供更好的服务。
3. 智能推荐:智能推荐是一种基于数据分析和机器学习的技术,可以为用户提供个性化的推荐服务。
基于人工智能的智能语音交互系统设计与实现一、前言随着人工智能技术的不断发展,智能语音交互技术也在日益成熟。
智能语音交互系统已经被广泛应用于各行各业。
本文将介绍基于人工智能的智能语音交互系统设计与实现。
二、概述智能语音交互系统是指通过语音识别和自然语言处理技术,使机器能够理解人类的语言并作出相应的回答或行为。
智能语音交互系统分为前端和后端两部分。
前端负责语音识别和语音合成,后端负责自然语言处理和相关的业务逻辑。
本文着重介绍后端的设计和实现。
三、技术选型1. 语音识别技术语音识别技术是智能语音交互系统的核心技术之一。
目前,市场上主要的语音识别技术有百度语音识别、科大讯飞语音识别、Google语音识别等。
本文选用了百度语音识别技术。
2. 自然语言处理技术自然语言处理技术主要包括文本分析、句法分析、语义分析、知识图谱等方面。
常见的自然语言处理技术有NLTK、spaCy、StanfordNLP等。
本文选用了NLTK。
3. 智能对话技术智能对话技术主要采用人机对话的形式,通过深度学习等技术提升机器的问答能力,使机器能够进行智能对话。
目前,市场上主要的智能对话技术有微软小冰、图灵机器人等。
本文选用了图灵机器人。
四、系统架构本系统采用MVC架构。
MVC是Model、View、Controller的缩写。
Model负责数据的存储和处理;View负责数据的显示;Controller负责控制数据流向Model和View。
本系统Controller主要用于和前端交互,Model负责自然语言处理和业务逻辑,View用于展示回答等信息。
五、功能介绍1. 热词检测热词检测是指系统能够根据用户说的话判断用户是否说出了关键词,并通过关键词判断后续操作。
例如,用户说出“我要听音乐”这一话语,系统能够识别出“听音乐”这个关键词,并根据这个关键词进行后续操作。
2. 语义理解语义理解是指系统能够根据用户说的话对其进行分类,以便系统能够理解用户的意图。
AI语音助手技术的研究与嵌入式系统开发随着人工智能技术的迅猛发展,AI语音助手已经成为了智能手机、智能音箱等设备的常见功能之一。
作为一种能够理解人类语言并执行相关任务的人工智能系统,AI语音助手在用户的日常生活中起到了重要的作用。
本文将探讨AI语音助手技术的研究进展以及在嵌入式系统开发中的应用。
首先,AI语音助手技术的研究取得了显著的进展。
基于深度学习和自然语言处理的研究不断推动了语音识别、语义理解和语音合成等核心技术的突破。
通过对大量语音数据的训练,AI语音助手能够准确地识别和理解用户的语音指令,并进行相应的响应。
同时,通过对上下文的理解和情感分析的应用,AI语音助手能够更好地理解用户的意图,并提供个性化的服务。
其次,AI语音助手在嵌入式系统开发中发挥了关键作用。
由于嵌入式系统通常具有资源受限、功耗低、实时性要求高等特点,所以在嵌入式AI语音助手的开发过程中需要面临一些挑战。
为了解决这些问题,研究人员提出了一系列的优化方法,如模型压缩、量化、剪枝和加速等技术。
通过对深度神经网络进行优化,可以将大型的AI模型压缩到适合嵌入式设备的大小,并满足实时性的要求。
另外,AI语音助手在嵌入式系统中的应用也包括了语音交互和智能控制等方面。
通过语音交互,用户可以方便地通过语音指令与设备进行交互,实现智能化的控制。
例如,用户可以通过语音指令控制智能家居设备的开关、调节温度等操作。
此外,AI语音助手还可以通过与其他智能设备的互联,实现更加智能化的服务,如语音导航、智能助手以及智能家居等。
在实际应用中,AI语音助手技术的研究和嵌入式系统开发也面临一些挑战和问题。
首先,语音识别的准确率和对不同语种、方言等的适应性仍然需要不断提高。
其次,语音合成的自然度和表现力也需要进一步增强,以提供更加人性化的交互体验。
此外,随着AI语音助手的普及,用户隐私和数据安全问题也需要引起足够的重视。
对于未来的发展,研究人员可以进一步探索AI语音助手技术的前沿研究方向。
基于语音识别技术的智能语音播报系统设计与实现近年来,随着人工智能技术的不断发展,各种智能化系统引发了人们的广泛关注和热议。
其中,基于语音识别技术的智能语音播报系统逐渐成为人们关注的焦点。
本文旨在探讨基于语音识别技术的智能语音播报系统的设计与实现。
一、前言随着信息时代的不断发展,越来越多的人们通过各种媒介获取信息,例如电视、广播、网络等。
其中,广播已经成为了人们获取信息的重要渠道之一。
然而,在日常生活中,人们往往无法及时地收听广播或者是无法在忙碌的工作中进行收听。
因此,如何提高广播信息的传播效率和接受效果成为了很多研究者关注的问题。
随着人工智能技术的发展和应用,智能化技术已经成为家电、汽车以及其他领域的重要发展方向。
语音识别技术的不断提升,促进了智能语音播报系统的快速发展。
这一技术可以实现准确识别用户输入的语音,并将其转化为对应的文字。
通过对语音识别技术的应用,智能语音系统可以自动化生成并播放广播内容,从而实现内容的智能化分发和分享。
此外,智能语音系统还具有着文本合成、自动翻译、语音背景音乐等多种功能模块,能够为用户带来便利,实现智能语音交互。
二、智能语音播报系统的原理智能语音播报系统的核心技术是语音识别技术和语音合成技术。
语音识别技术可以将用户的语音转化成文本形式,并进行识别和分类。
而语音合成技术则可以将文字转化成语音,进行音频播放输出。
这两种技术是智能语音播报系统的基础,系统的整体架构图如下:图1:智能语音播报系统架构图智能语音播报系统的核心功能是根据用户的指令自动播放对应的声音文件。
在语音播报过程中,系统将用户的语音指令进行语音识别,然后根据识别结果进行广播内容的自动合成和播报。
三、智能语音播报系统设计与实现智能语音播报系统的实现可以采用多种技术和方案,例如C++、JAVA、Python等编程语言实现,利用开源技术库进行开发。
下面将采用Python作为开发语言,介绍智能语音播报系统的实现过程。
智能语音交互系统设计与实现智能语音交互系统是一种可以使机器和人类进行自然、无缝对话的技术。
它通过语音识别、自然语言理解和语音合成等技术,实现人机之间的智能交互。
本文将为您介绍智能语音交互系统的设计与实现原理。
一、智能语音交互系统的设计原理智能语音交互系统的设计过程主要包括以下几个步骤:1. 语音输入:用户通过麦克风或其他语音输入设备向系统输入语音指令、问题或对话内容。
2. 语音识别:系统使用语音识别技术将语音输入转化为文字形式,从而使计算机能够理解用户的语音指令。
3. 自然语言理解:系统使用自然语言处理技术对语音识别结果进行分析和理解,将用户的语音指令转化为计算机能够理解的命令或问题。
4. 信息检索和推理:系统根据用户的指令或问题,通过信息检索和推理技术获取相应的信息或提供相应的答案。
5. 语音合成:系统使用语音合成技术将计算机生成的文字结果转化为语音输出,从而使用户能够听到计算机的回答或反馈。
6. 交互界面设计:系统设计人机交互界面,使用户可以通过界面与系统进行交互,如通过按键、手势等方式。
二、智能语音交互系统的实现步骤以下是智能语音交互系统的具体实现步骤:1. 数据准备:收集并整理大量的语音训练数据和语料库数据,包括不同口音、音频质量、语言风格等。
2. 语音识别模型训练:使用机器学习技术,基于准备好的语音数据训练语音识别模型,使其能够准确地将语音转化为文字。
3. 自然语言理解模型训练:使用自然语言处理技术,基于准备好的语料库数据训练自然语言理解模型,使其能够理解用户的语义意图。
4. 信息检索和推理模块设计:根据用户的不同需求,设计相应的信息检索和推理模块,使系统能够根据用户的指令获取相关信息或提供正确答案。
5. 语音合成模块设计:根据语音合成技术,设计合适的语音合成模块,使系统能够将文字结果转化为自然流畅的语音输出。
6. 交互界面设计与开发:根据用户需求和系统功能,设计直观、友好的交互界面,并进行相应的开发工作,实现用户与系统之间的交互。
基于语音识别技术的语音控制系统设计与实现引言:随着人工智能技术的迅速发展,语音识别技术成为了我们生活中的重要组成部分。
语音控制系统凭借其便利性和创新性,逐渐在各个领域得到广泛应用。
本文将描述一种基于语音识别技术的语音控制系统设计与实现,并介绍其在智能家居和智能助理领域的应用。
一、背景介绍随着科技的不断发展,智能家居系统已经成为人们生活中的重要组成部分。
然而,传统的人机交互方式对于智能家居系统的控制仍然存在诸多不便。
因此,将语音识别技术应用于智能家居系统,可以提供一种更加便捷和自然的控制方式。
二、系统设计1. 语音识别模块:语音识别模块是整个语音控制系统的核心部分。
它通过对用户输入的语音进行分析和理解,将语音转换为可执行命令。
为了提高识别准确率和响应速度,我们可以采用深度学习技术,如卷积神经网络(CNN)和长短期记忆网络(LSTM)。
2. 语义理解模块:语义理解模块负责将用户的语音命令转化为系统可识别的指令。
这个模块需要根据识别到的语音内容进行语义分析和解析,识别用户的意图并将其转化为对应的操作指令。
3. 控制指令生成模块:控制指令生成模块接收语义理解模块转化的指令,并生成对应的控制指令。
根据不同的智能设备和系统,生成相应的控制指令,以实现对智能家居的控制。
4. 控制执行模块:控制执行模块将生成的控制指令发送给智能家居设备执行。
这个模块需要与智能家居设备进行通信,将控制指令传递过去,并确保指令能够正确执行。
三、系统实现我们选择使用Python语言进行系统的实现。
Python具有简单易学、丰富的第三方库支持和强大的数据处理能力,非常适合语音识别系统的开发。
1. 语音识别模块实现:我们可以使用开源的语音识别引擎,如Google的开源项目SpeechRecognition库。
该库提供了简单易用的API,可以实现从音频文件或麦克风输入进行语音识别的功能。
2. 语义理解模块实现:为了实现语义理解功能,我们可以使用自然语言处理技术。
《蒙古语情感语音合成系统研究与实现》篇一一、引言随着人工智能技术的不断发展,情感语音合成技术在多个领域中得到了广泛应用。
其中,蒙古语情感语音合成系统的研究对于提升语音技术在民族文化交流、情感传达、智能助手等方向的应用效果具有重要意义。
本文将针对蒙古语情感语音合成系统进行研究与实现,并对其核心技术和实现方法进行详细介绍。
二、蒙古语情感语音合成系统研究背景及意义蒙古语作为中国少数民族语言之一,具有丰富的文化内涵和独特的语音特点。
然而,在当前的语音技术领域,针对蒙古语的语音合成技术研究相对较少。
因此,研究和实现蒙古语情感语音合成系统,对于推动蒙古语语音技术的发展,促进民族文化交流和传播具有重要意义。
同时,该系统还可以应用于智能助手、情感机器人等领域,提高人机交互的智能化和情感化。
三、蒙古语情感语音合成系统核心技术1. 语音信号处理技术语音信号处理是情感语音合成的基础。
在蒙古语情感语音合成系统中,需要采用数字信号处理技术对语音信号进行预处理、特征提取和参数编码等操作。
其中,预处理包括去噪、归一化等操作,特征提取则包括声学特征、韵律特征等。
2. 情感分析技术情感分析技术是情感语音合成的关键。
在蒙古语情感语音合成系统中,需要采用自然语言处理技术和机器学习算法对文本进行情感分析,提取出文本中的情感信息。
同时,还需要结合语音信号的特征,对情感信息进行量化表示和编码。
3. 语音合成技术语音合成技术是实现情感语音合成的核心。
在蒙古语情感语音合成系统中,需要采用基于统计的、基于规则的或基于深度学习的语音合成技术,将文本和情感信息转换为语音信号。
其中,深度学习技术在语音合成领域的应用已经取得了显著的成果。
四、蒙古语情感语音合成系统实现方法1. 系统架构设计蒙古语情感语音合成系统的架构设计包括数据预处理、特征提取、情感分析、语音合成和输出等模块。
其中,数据预处理模块负责对语音数据进行去噪、归一化等操作;特征提取模块负责提取声学特征和韵律特征;情感分析模块负责对文本进行情感分析并提取情感信息;语音合成模块则负责将文本和情感信息转换为语音信号;输出模块则负责将合成的语音信号进行播放或保存。
基于语音识别技术的智能语音合成系统设计与实现近年来,基于人工智能技术的语音交互越来越受到人们的关注。
其中,语音识别和语音合成技术是最为核心和关键的技术之一。
语音识别是将人的语音信号转换为文本信号的过程,而语音合成则是将文本信号转换为语音信号的过程。
本文主要探讨基于语音识别技术的智能语音合成系统的设计与实现。
一、需求分析在进行语音合成系统的设计前,我们首先需要明确系统的主要需求。
根据实际情况和用户反馈,我们列出以下需求:1.支持多种语言。
2.支持输入文本文件、剪贴板和语音输入等多种输入方式。
3.语音合成质量高,声音自然流畅。
4.支持自定义语音合成模型。
5.支持在线语音合成和离线语音合成两种方式。
6.支持多种输出格式,如mp3、wav、aac等。
二、技术选型基于以上需求,我们可以采用以下技术实现语音合成系统:1.语音识别技术。
采用深度学习算法实现语音信号转换为文本信号的过程。
2.文本分析技术。
采用自然语言处理技术分析文本信号,对词汇、语法和语调等进行处理,生成可用于语音合成的音素序列。
3.声学建模技术。
基于音素序列建立语音合成模型,用于生成自然流畅、高质量的语音合成声音。
4.语音合成技术。
采用WaveNet等先进的语音合成技术实现文本信号转换为语音信号的过程。
三、系统架构在进行语音合成系统的设计时,我们需要考虑系统的整体架构。
整个系统可以分为离线模型和在线模型两个部分。
1.离线模型离线模型部分主要用于提供离线语音合成服务。
该部分包括语音识别和语音合成两个主要部分。
语音识别将输入的语音信号转换成文本信号,而语音合成则根据输入的文本信号生成语音信号。
采用深度学习算法,并使用端到端的模型实现语音识别和语音合成。
2.在线模型在线模型部分主要用于提供在线语音合成服务。
该部分包括前端交互和语音合成两个主要部分。
前端交互主要用于接收用户输入的文本信号,而语音合成则根据输入的文本信号生成语音信号。
采用WaveNet等先进的语音合成技术实现在线语音合成。
智能语音交互系统的设计和实现近年来,智能语音交互系统已成为人工智能领域的热门研究方向。
这种系统能够通过人与机器之间的语音交互,进行信息检索、任务完成、设备控制、语音合成等多种功能。
本文将探讨智能语音交互系统的设计和实现。
一、智能语音交互系统的基本原理智能语音交互系统的核心是语音识别技术。
该技术通过将语音信号转换为文本,以便计算机能够理解和处理。
常用的识别方法包括模板匹配、统计模型和神经网络。
其中,神经网络技术在语音识别领域中表现优异,在大规模语音数据上进行训练,能够取得高精度。
在语音识别的基础上,智能语音交互系统还需要进行自然语言理解与生成。
自然语言理解是指将自然语言转换为与计算机交互的符号语言,而自然语言生成则是将计算机生成的符号语言转换为自然语言,供人类理解。
这些技术的综合应用,才能实现真正的智能语音交互。
二、智能语音交互系统的应用智能语音交互系统的应用非常广泛。
举个例子,大家熟知的智能音箱,就是其中一种应用。
通过语音交互,用户可以实现音乐播放、天气查询、闹钟设置、智能家居控制等多种功能。
除此之外,智能语音交互系统还可应用于医疗领域、教育领域、金融领域等多个领域。
在医疗领域,可以通过语音交互实现病历记录、诊断辅助、病情监测等功能;在教育领域,可以设计语音交互学习应用,帮助学生学习和记忆;在金融领域,智能语音交互可以实现理财投资、自动客服等功能。
三、智能语音交互系统的设计与实现智能语音交互系统的设计与实现,包含以下几个关键步骤:1.语音采集:采集用户的语音输入,可以使用单麦克风、双麦克风和阵列麦克风等不同类型的麦克风。
2.信号预处理:对采集到的语音信号进行去噪、语音分割和特征提取等处理,以便进行后续的语音识别。
3.语音识别:通过对语音信号进行分析和匹配,将其转换为文本,可以使用语音识别引擎。
4.自然语言理解:将转换后的文本进行解析和分析,以识别用户的意图和需求。
可以使用自然语言处理技术实现。
5.应答生成:根据用户的意图和需求,生成相应的回答,可以使用自然语言生成技术实现。
智能语音交互系统设计与实现智能语音交互系统的设计与实现已经成为当下研究的热点,其被广泛应用于人机交互、智能家居、智能物联网等领域。
本文将介绍智能语音交互系统的原理、技术和实现。
一、智能语音交互系统的原理智能语音交互系统基于语音合成技术和语音识别技术,实现人机交互。
语音合成技术是将计算机输入的文字转换成声音,让计算机通过声音与人进行交互。
语音识别技术是指计算机通过识别人的声音来理解意图,从而实现人机交互。
智能语音交互系统包括前端和后端两部分。
前端包括麦克风、数字信号处理器、模拟转数字器和语音输入接口等。
后端包括语音处理器、语音识别器、内容管理系统和自然语言处理器等。
用户在使用智能语音交互系统时,通过麦克风将语音输入接口输出的声音传递给数字信号处理器,然后转换成数字信号后传递给语音处理器进行语音分析和处理。
语音处理器将识别到的语音信号转换成文本,并传递给自然语言处理器进行语义分析,将用户的意图转化成计算机可识别的指令。
之后,计算机根据用户的指令进行运算和处理,并通过内容管理系统输出指令结果,最终经过语音合成器生成声音,传回到声音输出设备,让用户获取计算机处理后的信息。
二、智能语音交互系统的技术1. 语音信号处理技术。
语音信号的采集、预处理和增强是语音交互系统的关键技术。
在信号采集方面,采用环境噪音消除和数字信号处理等技术既能够减小环境对语音质量的影响,也能够增加语音的识别精度。
2. 语音识别技术。
语音识别技术是智能语音交互系统的核心技术,其目的是将用户的语音输入转化成计算机可识别的文本。
语音识别技术根据特征提取和模式匹配两个基本原理,将语音信号转化成文本,并通过语义分析将文本转化成计算机可识别的指令。
3. 自然语言处理技术。
自然语言处理技术是指计算机针对自然语言文本进行分析和处理的技术。
智能语音交互系统需要利用自然语言处理技术将用户的指令转化成计算机可执行的操作。
4. 语音合成技术。
语音合成技术是将计算机处理后的结果通过声音输出设备输出成声音信号的技术。
语音业务多系统融合技术研究与实现
作者:耿琳莹陈登伟安新源孙瑞
来源:《物联网技术》2016年第12期
摘要:针对各类任务中指挥通信终端种类繁多,现有语音指挥通信保障系统不能“一呼百应”的缺陷,文中以调度单机为中继,以现有调度系统为交换系统,对某简单型融合设备进行了接口、信令转换等技术改进设计。
通过对音频的控制和转发,融合系统克服各语音系统的技术协议壁垒,解决了各语音系统间的互联互通问题,实现了各语音系统组网应用,简化了语音通信保障模式,提高了指挥效率,提升了现有通信设备的使用效率。
经过实际验收应用,文中提出的技术改进达到了良好的使用效果。
关键词:指挥通信;语音业务;融合处理;技术改进;设计
中图分类号:TP334.2+4 文献标识码:A 文章编号:2095-1302(2016)12-00-03
0 引言
在信息时代,出于地域、环境和安全保密等因素的考虑,为保证指挥员命令及时准确的下达,往往需要建立多种任务指挥通信系统。
指挥通信系统的多样化带来的是通信保障手段的灵活多变和任务通信保障能力的提升,但经常由于各语音系统采用不同的技术体制,彼此之间相互独立,因此无法实现互联互通和资源整合。
如果各系统能够互联互通,各系统之间将是一个完整的整体,指挥员的一个指挥终端可以指挥各个系统的操作终端,达到“一呼百应”的指挥效果,最大程度提升指挥效能。
为解决上述问题,迫切需要研究指挥通信语音业务多系统融合技术,尽可能将现有的各种通信业务系统进行有效融合,实现各系统之间的互通互联,有效提高指挥效率[1-4]。
1 现有语音指挥通信保障模式存在的主要问题
在现有通信保障中,当前语音通信系统较多,各系统之间设备无法互联互通,通常会遇到以下2个方面的困难:
(1)指挥调度能力覆盖不足。
目前的指挥调度系统以有线为主,主要覆盖指挥楼内的固定调度单机,受到传输手段、终端数量等约束条件限制,提供的指挥调度能力非常有限,一旦点位分散,任务全面铺开,现有指挥调度无法覆盖整个场区,无法满足实际使用需求。
(2)操作使用非常不便。
在进行保障指挥调度过程中,指挥员面前有时需要同时安装固定电话系统、集群系统手持机、调度单机等多个终端,指挥员需要牢记各个终端与对应者的关系,一个口令有时需要通过不同设备重复下达,操作过程繁琐,效率低下,而且容易出错。
基于上述困难,急需实现指挥调度、固定电话、集群通信等几个语音业务系统之间的互联互通,达到“单机指挥,一呼百应” 的快捷效果。
2 指挥通信语音业务多系统融合系统的技术改进
2.1 原音频融合设备情况介绍
本文的研究基于BY-AVSP-TS004-1型音频融合调度设备(下文简称“音频融合设备”)。
该音频融合设备主要由通用控制器机框和各种板卡组成。
通用控制器机框是各个板卡的容器,主要为各个板卡供电,提供各个板卡间的数据交换功能,并为各个板卡提供相应的外部接口。
但该音频融合设备只具备程控电话拨打四线模拟调度、程控电话拨集群手持机2个功能,不具备三方通话功能,无法实现调度单机、集群系统基站、程控交换机的互联互通及混音会议功能。
2.2 设计思路
现有设备不具备三方通话功能的原因是有线指挥调度系统为数字调度系统,仅支持H.323协议[5],而该融合设备采用SIP协议,两者无法直接互连互通。
实际中使用的无线集群调度系统协议众多,不同融合设备厂家和集群调度系统厂家设定的集群系统协议可能不相同。
为解决它们的互连问题,需要克服厂家之间的私有协议保护,通过提取音频信号进行控制和转发。
因此,语音业务多系统融合接入系统的总体设计思路为:以数字调度系统为核心交换系统,以音频融合设备为基础,在保持现有各类语音指挥通信系统稳定运行的情况下,对部分系统设备相关接口进行技术改进,采用以单个调度单机为中继的方式,分别通过融合设备实现集群系统、程控系统的互连互通。
集群系统、固定电话系统分别与单个调度单机进行音频互连互通,调度单机分别采集各个设备的音频信号,通过自有的网口与调度交换主机相连,最终实现集群系统与程控电话系统、指挥调度系统的互连互通功能,达到“一呼百应”的通信效果,充分拓展现有各语音系统的任务保障能力,提高了指挥效率和原有装备效益。
图1所示为利用一个有线指挥调度终端带入一套通信系统示意图。
2.3 接口设计
集群系统基站具备网口、串口、环路中继、E1接口、用户接口和音频输入、PTT输入接口,本文采用环路接口将集群系统基站与融合设备相连,首先对融合设备的相关接口进行了软件修改,采用融合设备使软件第一步拨打融合设备内部号码,第二步拨打电话网号码,第三步拨打集群系统调度台,第四步拨打集群手持机或车载台号码的方法,实现系统之间的互连。
图2所示为集群系统与音频融合设备连接示意图。
该融合设备已具有连接某特定型号的集群系统功能,不支持单位使用的集群系统(下文简称“UHF”)。
考虑到UHF集群系统提供的是环路中继,只要有电话线的地方都能与UHF集群互通。
为方便UHF的接入,这里借助固定电话网的用户线将UHF集群接入,同时音频融合设
备通过E1中继接入固定电话网,最终实现音频融合设备与UHF集群的互通。
图3所示为UHF集群系统通过固定电话网实现和指挥调度系统互通的示意图。
无线群组通过环路中继的接入仍存在时间上的限制,这是设备本身的特性所限定的。
UHF 集群的接入耗费了较多时间在研究集群设备上,研究工作通过将UHF集群接入固定电话网,避开了UHF集群设备本身存在的弊端,很好地解决了时间上的限制问题,最终实现了单个无线用户的稳定接入。
3 改进的指挥通信语音业务多系统融合具体实现
3.1 信令转换
音频融合系统主要实现指挥调度系统和集群系统、固定电话网系统之间的互联互通。
其中,指挥调度系统使用一台调度单机作为中继进行音频互通,音频融合设备通过音频线连接调度单机的音频输入输出端口实现音频互通功能。
集群系统通过环路中继的方式与音频融合系统进行互通。
固定电话网通过E1接口与音频融合设备进行互通。
音频融合系统的信令转换通过音频融合设备的ISG程序实现。
ISG由主控子系统(GCU)、数字中继子系统(DTU)、模拟中继子系统(ATU)、模拟用户子系统(ASU)、无线接入子系统(ECU)、媒体资源管理子系统(MRU)以及时隙连接管理系统(CMU)等组成。
DTU实现数字中继接入功能(包括7号信令接入),在音频融合系统中通过DTU实现和固定电话网的互通。
该子系统部署在数字中继板(MGU)上。
固定电话网发起呼叫的信令流程如图4所示。
ATU实现环路中继的接入功能,在音频融合系统中实现和军用集群系统的互通。
其功能主要包括用户事件检测,将事件适配为GCU上的标准业务控制流程,接受GCU的控制完成相应的业务功能。
此子系统部署在环路用户接入板(DLC)上。
环路中继呼入的信令流程如图5所示。
ECU提供无线设备接入功能,包括无线保密调度主机、保密机、自适应控制器、收信机、发信机等设备。
在音频融合系统中实现和智讯指挥调度系统、无线保密调度集群系统的互通。
ECU子系统主要实现音频接口、PTT、RS 232等事件检测,将事件适配为GCU上的标准业务控制流程,接受GCU的控制完成相应的业务功能,此子系统部署在无线接入板(MT-ECU4321)上。
音频融合设备通过ECU呼出流程示意图如图6所示。
3.2 媒体转换过程
模拟的语音信号如果要通过IP网络传输,则需要先进行模拟/数字转换,然后对编码后的数据进行压缩,最后打包成RTP包,通过IP网络传送到对端。
对端接收到数据后,进行解RTP包、解压缩操作,然后经数字/模拟转换后输出。
对于通过E1等线路传输的数字音频信号,在通过时隙交换后传输到音频输出端口时,只需在接收端对其进行数据/模拟信号的转换即可。
媒体转换的过程如图7所示。
4 结语
综上所述,本文的语音业务多系统融合技术以数字调度系统为核心,以音频融合设备为基础,通过接口设计、信令转换设计和媒体转换设计三部分,实现了在保持现有各类语音指挥通信系统稳定运行的情况下,对部分系统设备相关接口的技术进行改进,达到了“一呼百应”的指挥效果,减少了指挥员对终端设备的操作工作量,给了指挥员更多的态势把握和决策思考时间,使指挥员能够实时了解末端的实际情况,也可以直接指挥末端,使任务的部署更加灵活,大大提高了模拟的真实度。
参考文献
[1]肖巍.多网络融合语音业务系统的设计与实现[D].北京:北京邮电大学,2010.
[2]肖巍,周文安,马飞,等.一种融合网络语音业务系统的实现方法的研究[J].计算机技术与发展,2009,19(11):238-241.
[3]吴彤.融合的语音业务和IP多媒体业务[J].现代电信科技,2007,37(5):1-4.
[4]雷多萍.语音业务网络和语音智能业务演进设想[C].全国无线及移动通信学术大会,2012.
[5] 葛澍,马跃,喻炜.H.323消息编解码的研究与实现[J].中国数据通信,2002,4(3):74-78.
[6]王春力.基于P2P的网络语音捕获与多路混音算法研究[D].济南:山东科技大学,2010.
[7]肖巍.多网络融合语音业务系统的设计与实现[D].北京:北京邮电大学,2010.
[8]肖巍,周文安,马飞,等.一种融合网络语音业务系统的实现方法的研究[J].计算机技术与发展,2009,19(11):238-241.。