导航:X技术最新专利乐器;声学设备的制造及制作,分析技术
1.本技术属于语音处理技术领域,尤其涉及语音情感识别方法、装置、终端设备及计算机可读存储介质。
2.语音情感识别是指根据输入的语音信息识别出说话人的情感状态的技术。语音是人与人之间交流最直接的方式,包含了说话人的语义、语调、语气等信息,能很好地反映出情感特征,因此语音情感识别技术是情感识别领域非常热门的研究方向。
3.现有技术中,通常是分别提取待处理语音中的语言特征(如文本特征)和副语言特征(如音调、韵律等特征),再根据这两类特征进行情感类型的识别。这样的特征提取方式往往会丢失掉一些重要的语义信息,进而影响后续的识别结果。
4.本技术实施例提供了一种语音情感识别方法、装置、终端设备及计算机可读存储介质,可以有效提高语音情感识别的精度。
6.获取对待处理语音进行语音识别得到的文本特征,以及对所述待处理语音进行音频特征提取得到的音频特征;
8.根据所述音频特征和所述文本特征的对应关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征;
10.由于文本特征包括了语言信息,而图像特征包括了更丰富的语义信息,本技术实施例中,将待处理语音的文本特征映射到图像空间,得到的图像特征中既保留了待处理语音原本的语言信息,又增加了待处理信息的语义信息。由于音频特征包括了如音调、韵律等副语言特征,将待处理文本的音频特征与图像特征进行信息融合,获得的融合特征中包含了待处理语音的语言信息、副语言信息和语义信息。通过上述方法,可以获取到待处理语音中较多的特征信息,利用该较多的特征信息识别待处理语音的情感类别,可以有效提高语音情感识别的精度。
11.在第一方面的一种可能的实现方式中,在将所述文本特征映射到图像空间,获得图像特征之前,所述方法还包括:
14.将所述生成图像的特征和所述训练图像的特征输入预设的判别器,获得判别结果;
18.在第一方面的一种可能的实现方式中,所述根据所述音频特征和所述文本特征的对应关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征,包括:
19.计算所述图像特征中的第一局部特征与所述文本特征中的第二局部特征之间的第一映射关系,其中,所述第一局部区域用于表征图像中的区域,所述第二局部特征用于表征文本中的词语;
20.计算所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系,其中,所述第三局部特征用于表征音频中的音素,所述第四局部特征用于表征文本中的词语;
21.根据所述第一映射关系和所述第二映射关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征。
22.在第一方面的一种可能的实现方式中,所述根据所述第一映射关系和所述第二映射关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征,包括:
23.对于每组第三局部特征,根据所述第一映射关系和所述第二映射关系获取目标特征,所述目标特征为所述图像特征中与所述第三局部特征对应的第一局部特征;
24.将所述第三局部特征添加到所述目标特征上,获得融合后的所述目标特征;
25.在对所有第三局部特征处理后,将融合后的所述目标特征和未经融合的第一局部特征生成所述融合特征。
26.在第一方面的一种可能的实现方式中,所述根据所述融合特征识别所述待处理语音的情感类别,包括:
29.在第一方面的一种可能的实现方式中,获取所述待处理语音的音频特征的步骤包括:
33.在第一方面的一种可能的实现方式中,获取所述待处理语音的文本特征的步骤包括:
35.相应的,所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系根据所述语音识别模型的中间计算结果确定。
37.获取单元,用于获取对待处理语音进行语音识别得到的文本特征,以及对所述待处理语音进行音频特征提取得到的音频特征;
39.融合单元,用于根据所述音频特征和所述文本特征的对应关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征;
41.第三方面,本技术实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上述第一方面中任一项所述的语音情感识别方法。
42.第四方面,本技术实施例提供了一种计算机可读存储介质,本技术实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上述第一方面中任一项所述的语音情感识别方法。
43.第五方面,本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的语音情感识别方法。
44.可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
45.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
51.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本技术实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本技术。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本技术的描述。
52.应当理解,当在本技术说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
53.还应当理解,在本技术说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
54.如在本技术说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本技术说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本技术说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本技术的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
语音情感识别是指根据输入的语音信息识别出说话人的情感状态的技术。现有的语音情感识别方法在进行语言和副语言表征建模时,采用的是基于序列模型(如神经网络模型)的方法。例如循环神经网络,如下:
是输入序列,w和u分别是矩阵,σ是非线性激活函数(如sigmoid等)。为最后得到的表征,wk为序列元素hk对应的权重。在分别得到副语言和语言的表征和后。进行拼接并分类,例如:
现有的语音情感识别方法的流程图参见图1。如图1所示,现有技术中,通过语音识别技术(如图1中所示的asr)获取待处理语音(如图1所示的语音)的文本信息,再从文本信息中获取词特征,进而获得文本序列表征。再获取待处理语音的帧特征(指语音按间隔分段后得到的片段),进而获得语音序列表征。然后将语音序列表征和文本序列表征拼接在一起,相当于将音频特征和文本特征拼接,最后利用拼接后的特征进行情感识别。
如图1所示,现有技术中,是分别提取待处理语音中的语言特征(文本特征)和副语言特征(帧特征),这样的特征提取方式往往会丢失掉待处理语音中一些重要的语义信息。另外,将语言特征和副语言特征直接映射到情感识别结果,这样无法保证情感识别模型可以学习到所需的特征信息。
为了解决上述问题,本技术实施例提供了一种语音情感识别方法。参见图2,是本技术实施例提供的语音情感识别方法的流程示意图,作为示例而非限定,所述方法可以包括以下步骤:
s201,获取对待处理语音进行语音识别得到的文本特征,以及对所述待处理语音进行音频特征提取得到的音频特征。
本技术实施例中的待处理语音可以为数字音频,如采样率大于16khz的采样点序列。
语音识别的目的是将语音识别为文字。本技术实施例中,可以采用现有的技术,如kaldi等语音识别工具,对待处理星空体育登录入口 星空体育在线官网语音进行语音识别处理。
可选的,语音识别处理后的结果可以进一步地转换为表征向量。例如,可以采用现
有的神经网络模型(如rnn、transformer等),将变长的输入转换为定长的表征向量。
相应的,本技术实施例中的语音识别模型中既包含了将语音识别为文字的语音识别工具,又包含了将语音识别结果转换为表征向量的模型。
获取音频特征的一种方式为:将待处理语音输入训练后的音频特征提取模型,获得音频特征。其中,音频特征提取模型可以为神经网络。
对所述待处理语音进行分帧处理,获得多个音频片段;获取所述多个音频片段各自对应的频谱;根据预设的滤波器对所述频谱进行滤波处理,获得所述音频特征。
本技术实施例中,可以采用傅立叶变换获取音频片段的频谱。预设的滤波器可以采用梅尔倒(mel)滤波器。具体的,根据mel滤波器进行滤波处理的过程可以包括:将频谱输入mel滤波器,得到mel频谱;对mel频谱取对数、并进行逆变换处理,获得mel频谱上面的倒谱系数。该倒谱系数称为mel频谱倒谱系数,将该mel频谱倒谱系数作为音频特征。
mel频谱倒谱系数可以准确描述声道形状在语音短时功率谱的包络的特征,进而有利于后续的语音情感识别。
需要说明的是,本技术实施例中以文本特征到图像特征的映射、以及音频特征到图像特征的映射为例进行描述,即以文本特征和音频特征作为输入数据,图像特征作为输出数据。实际应用中,也可以将文本、音频作为输入数据,图像作为输出数据。
本技术实施例中,可以利用生成器模型获取文本特征和图像特征之间的映射关系。
在一个实施例中,获取图像特征的方式为:将所述文本特征输入训练后的所述生成器,获得所述图像特征。
获取训练文本、以及与所述训练文本表达语义相匹配的训练图像;将所述训练文本的特征输入预设的生成器,获得生成图像的特征;将所述生成图像的特征和所述训练图像的特征输入预设的判别器,获得判别结果;根据所述判别结果更新所述生成器的参数,获得训练后的所述生成器。
在训练生成器过程中,可以通过看图说话技术采集训练文本、以及与训练文本对应的训练图像。然后通过生成对抗方式,训练生成器。如下所示:
表示满足条件的图像,g表示生成器(如cnn,rnn等)。表示真实的对应文本的图像,d表示判别器,用来区分真实图像和生成图像学习的目标是d尽可能的准确分辨真假图像,而g尽可能地让d分不清楚。示例性的,训练的损失函数,即目标函数可以如下所示:
其中,obj指的是模型求解的目标。n是预先搜集的文本(ti)与图像(物理空间表征
(iiti)表示已知文本ti、它对应的物理空间表征ii的概率函数。根据条件概率p
(iiti)可以求得文本对应的物理空间表征。上述公式求的的θ为生成器的参数。
s203,根据所述音频特征和所述文本特征的对应关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征。
本技术实施例中,信息融合的方法采用的是,将音频特征和文本特征分别映射到图像空间(即物理空间),在图像空间中将其二者融合。
i、计算所述图像特征中的第一局部特征与所述文本特征中的第二局部特征之间的第一映射关系,其中,所述第一局部区域用于表征图像中的区域,所述第二局部特征用于表征文本中的词语。
该步骤中,同样可以采用生成模型,不过此处到生成模型的输入为图像特征,输出为文本特征。对生成模型的训练同样可以采用生成对抗的方式,详见s202中的描述,在此不再赘述。
生成器中包括编码器和解码器,两者之间只使用了一个代表原文本全局信息的特征矢量进行连接,这将严重的影响解码效果。若原文本的长度过长,decoder很难根据原文本的全局信息实现逐个单词的精确解码。
为了解决上述问题,可选的,可以引用注意力机制,将注意力模型和生成模型相结合。例如,在解码器部分引入注意力机制。编码器部分仍然使用一系列lstm(长短期记忆网络,long short-term memory)单元对原文本进行编码,解码器部分每个lstm单元的输入为注意力单元的输出和上一个lstm单元输出矢量的串联,这样,解码器在每一步解码时可以关注原文本的不同部分进行解码。每个注意力单元的输出是编码器每个lstm单元输出矢量的加权平均和解码器前一个lstm单元隐层矢量的叠加。注意力模型和生成模型结合后的输出为,图像中每个区域对应文本中每个词的注意力分布(权重分布),该注意力分布可作为第一映射关系。
ii、计算所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系,其中,所述第三局部特征用于表征音频中的音素,所述第四局部特征用于表征文本中的词语。
如s201所述,通过语音识别模型获取文本特征。由于语音识别模型的识别过程中,需要知道每一帧音频对应的音素,再将音素组成词。因此,相应的,可以根据所述语音识别模型的中间计算结果确定所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系。
iii、根据所述第一映射关系和所述第二映射关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征。
由步骤i相当于获取了每个词语对应的图像中的区域,由步骤ii相当于获取了每个词语对应的音频特征,通过词语可以将音频特征映射到图像空间。具体的,步骤iii的一种实现方式为:
对于每组第三局部特征,根据所述第一映射关系和所述第二映射关系获取目标特征,所述目标特征为所述图像特征中与所述第三局部特征对应的第一局部特征;将所述第
在对所有第三局部特征处理后,将融合后的所述目标特征和未经融合的第一局部特征生成所述融合特征。
在一个实施中,上述信息融合的方式可以通过一个映射模型实现。如s202所述,可以训练一个由音频特征到图像空间的映射模型。示例性的,训练的目标函数可以为:
上述公式描述的是副语言特征(语音识别过程中已与文本对齐,用t指代副语言特征)与物理空间(图像空间)之间的对齐模型。其中i指的是t对应的物理空间表征,warp指的是人工标注好的文本词向物理空间表征局部之间的映射关系。通过数据训练好的p
图像空间中通常包括多个通道,不同的通道包含不同的特征信息。可选的,可以将音频特征作为额外的通道拼接到图像区域上。
通过上述方法得到的融合特征既包括了文本的语言信息,又包括了图像空间的语义信息,还包括了音频的副语言信息。并且,这些特征信息在图像空间中相互关联,有利于后续情感识别过程中分析出情感状态的诱因,进而提高情感识别的精度。
在一个实施例中,可以将融合特征输入预设的分类器,获得待处理语音的情感类别。
为了进一步提取更为精准的特征信息,以进一步提高识别精度。在另一个实施例中,s204包括:
对所述融合特征进行特征提取处理,获得目标特征;将所述目标特征输入预设的分类器,输出所述情感类别。
由于文本特征包括了语言信息,而图像特征包括了更丰富的语义信息,本技术实施例中,将待处理语音的文本特征映射到图像空间,得到的图像特征中既保留了待处理语音原本的语言信息,又增加了待处理信息的语义信息。由于音频特征包括了如音调、韵律等副语言特征,将待处理文本的音频特征与图像特征进行信息融合,获得的融合特征中包含了待处理语音的语言信息、副语言信息和语义信息。通过上述方法,可以获取到待处理语音中较多的特征信息,利用该较多的特征信息识别待处理语音的情感类别,可以有效提高语音情感识别的精度。
参见图3,是本技术实施例提供的识别方法的流程图。如图3所示,本技术实施例中,先通过语音识别模型(asr,如kaldi等)对待处理语音(如图3所示的语音)进行语音识别处理,获得文本;进而利用bert(bidirectional encoder representation from transformers,语言表征)模型将识别出的文本转换为词特征;将词特征映射到图像空间,以使文本特征与图像特征对齐。再对待处理语音进行音频特征提取,获得帧特征;将帧特征映射到图像空间,以使音频特征(声学)与图像特征对齐。最后根据文本特征与图像特征的对齐结果、和音频特征与图像特征的对齐结果,识别待处理语音的情感类型。
与图1所示的现有技术相比,本技术实施例提供的语音情感识别方法中的特征提
取方式,可以获取到更多的特征信息,并且可以获取多种特征信息之间的关联关系,进而为后续的情感识别提供更可靠的数据基础。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限定。
对应于上文实施例所述的语音情感识别方法,图4是本技术实施例提供的语音情感识别装置的结构框图,为了便于说明,仅示出了与本技术实施例相关的部分。
获取单元41,用于获取对星空体育登录入口 星空体育在线官网待处理语音进行语音识别得到的文本特征,以及对所述待处理语音进行音频特征提取得到的音频特征。
融合单元43,用于根据所述音频特征和所述文本特征的对应关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征。
训练单元45,用于在将所述文本特征映射到图像空间,获得图像特征之前,获取训练文本、以及与所述训练文本表达语义相匹配的训练图像;将所述训练文本的特征输入预设的生成器,获得生成图像的特征;将所述生成图像的特征和所述训练图像的特征输入预设的判别器,获得判别结果;根据所述判别结果更新所述生成器的参数,获得训练后的所述生成器。
计算所述图像特征中的第一局部特征与所述文本特征中的第二局部特征之间的第一映射关系,其中,所述第一局部区域用于表征图像中的区域,所述第二局部特征用于表征文本中的词语;
计算所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系,其中,所述第三局部特征用于表征音频中的音素,所述第四局部特征用于表征文本中的词语;
根据所述第一映射关系和所述第二映射关系,将所述音频特征和所述图像特征进行信息融合,获得融合特征。
对于每组第三局部特征,根据所述第一映射关系和所述第二映射关系获取目标特征,所述目标特征为所述图像特征中与所述第三局部特征对应的第一局部特征;
在对所有第三局部特征处理后,将融合后的所述目标特征和未经融合的第一局部特征生成所述融合特征。
相应的,所述音频特征中的第三局部特征与所述文本特征中的第四局部特征之间的第二映射关系根据所述语音识别模型的中间计算结果确定。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
另外,图4所示的语音情感识别装置可以是内置于现有的终端设备内的软件单元、硬件单元、或软硬结合的单元,也可以作为独立的挂件集成到所述终端设备中,还可以作为独立的终端设备存在。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本技术的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图5是本技术实施例提供的终端设备的结构示意图。如图5所示,该实施例的终端设备5包括:至少一个处理器50(图5中仅示出一个)处理器、存储器51以及存储在所述存储器51中并可在所述至少一个处理器50上运行的计算机程序52,所述处理器50执行所述计算机程序52时实现上述任意各个语音情感识别方法实施例中的步骤。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图5仅仅是终端设备5的举例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器50可以是中央处理单元(central processing unit,cpu),该处理器50还可以是其他通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51在一些实施例中可以是所述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。所述存储器51在另一些实施例中也可以是所述终端设备5的外部存储
设备,例如所述终端设备5上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。进一步地,所述存储器51还可以既包括所述终端设备5的内部存储单元也包括外部存储设备。所述存储器51用于存储操作系统、应用程序、引导装载程序(bootloader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
本技术实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质。例如u盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
在本技术所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实
施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围,均应包含在本技术的保护范围之内。