新聞中心

        EEPW首頁 > 嵌入式系統 > 設計應用 > 語音識別在微機器人控制系統中的應用

        語音識別在微機器人控制系統中的應用

        作者: 時間:2012-05-23 來源:網絡 收藏

        摘要:介紹了一種于微控制平臺的算法,可實現簡單命令詞語的,控制微的移動。利用K均值分段法,在每次計算完觀察值最佳狀態序列后,插入一個重估過程,隨時調整參數以下一個句子。實驗結果表明,這種實時學習的識剮算法適合嵌入式。

        本文引用地址:http://www.104case.com/article/149013.htm

        關鍵詞:微識別隱式馬爾可夫模型嵌入式系統

        本文基于毫米級全方位無回轉半徑移動機器人課題。微系統配置示意圖如圖1所示。主要由主機Host(配有圖像采集卡)、兩個CCD攝像頭(其中一個為顯微攝像頭)、微移動裝配平臺、微機器人本體和系統控制電路板等組成。計算機和攝像機組用于觀察微機器人的方位,控制微機器人的移動。

        本文在系統控制電路中嵌入式實現語音識別算法,通過語音控制微機器人。

        微機器人的資源有限,控制方法比較復雜,并且需要有較高的實時性,因此本文采用的語音識別算法必須簡單、識別率高、占用系統資源少。

        HMM(隱馬爾可夫模型)的適應性強、識別率高,是當前語音識別的主流算法。使用基于HMM非特定人的語音識別算法雖然借助模板匹配減小了識別所需的資源,但是前期的模板儲存工作需要大量的計算和存儲空間,因此移植到嵌入式系統還有一定的難度,所以很多嵌入式平臺的訓練部分仍在PC機上實現。

        為了使訓練和識別都在嵌入式系統上實現,本文給出了一種基于K均值分段HMM模型的實時學習語音識別算法,不僅解決了上述問題,而且做到了智能化,實現了真正意義上的自動語音識別。

        1增量K均值分段HMM的算法及實現

        由于語音識別過程中非特定的因素較多,為了提高識別的準確率,針對本系統的特點,采用動態改變識別參數的方法提高系統的識別率。

        訓練算法是HMM中運算量最大、最復雜的部分,訓練算法的輸出是即將存儲的模型。目前的語音識別系統大都使用貝斯曼參數的HMM模型,采取最大似然度算法。這些算法通常是批處理函數,所有的訓練數據要在識別之前訓練好并存儲。因此很多嵌入式系統因為資源有限不能達到高識別率和實時輸出。

        本系統采用了自適應增量K均值分段算法。在每次輸入新的語句時都連續地計算而不對前面的數據進行存儲,這可以節約大量的時間和成本。輸入語句時由系統的識別結果判斷輸入語句的序號,并對此語句的參數動態地修改,真正做到了實時學習。

        K均值分段算法是基于最佳狀態序列的理論,因此可以采用Viterbi算法得到最佳狀態序列,從而方便地在線修改系統參數,使訓練的速度大大提高。

        為了達到本系統所需要的功能,對通常的K均值算法作了一定的改進。在系統無人監管的情況下,Viterbi解碼計算出最大相似度的語音模型,根據這個假設計算分段K均值算法的輸入參數,對此模型進行參數重估。首先按照HMM模型的狀態數進行等間隔分段,每個間隔的數據段作為某一狀態的訓練數據,計算模型的初始參數λ=f(a,A,B)。采用Viterbi的最佳狀態序列搜索,得到當前最佳狀態序列參數和重估參數θ,其中概率密度函數P(X,S|θ)代替了最大似然度算法中的P(X,θ),在不同的馬爾科夫狀態和重估之間跳轉。基于K均值算法的參數重估流程如下:

        為了使參數能更快地收斂,在每幀觀察語音最佳狀態序列的計算結束后,加入一個重估過程,以求更快地響應速度。

        可以看到,增量K均值算法的特點為:在每次計算完觀察值最佳狀態序列后,插入一個重估過程。隨時調整參數以識別下一個句子。

        由于采用混合高斯密度函數作為輸出概率分布可以達到較好的識別效果,因此本文采用M的混合度對數據進行訓練。

        對λ重估,并比較收斂性,最終得到HMM模型參數訓練結果。

        可見,用K均值法在線修改時,一次數據輸入會有多次重估過程,這使系統使用最近的模型估計后續語句的最佳狀態序列成為可能。但是對于在線修改參數要求,快速收斂是很重要的。為了得到更好的Viterbi序列,最佳狀態序列使用了漸增的算法模型,即快速收斂算法。

        語音識別的具體實現過程為:數字語音信號通過預處理和特征向量的提取,用戶通過按鍵選擇學習或者識別模式;如果程序進入訓練過程,即用戶選擇進行新詞條的學習,則用分段K均值法對數據進行訓練得到模板;如果進入識別模式,則從Flash中調出聲音特征向量,進行HMM算法識別。在識別出結果后,立即將識別結果作為正確結果與前一次的狀態做比較,得到本詞條更好的模板,同時通過LED數字顯示和語音輸出結果。系統軟件流程如圖2所示。

        對采集到的語音進行16kHz、12位量化,并對數字語音信號進行預加重:

        L選擇為320個點,用短時平均能量和平均過零率判斷起始點,去除不必要的信息。

        對數據進行FFT運算,得到能量譜,通過24通道的帶通濾波輸出X(k),然后再通過DCT運算,提取12個MFCC系數和一階二階對數能量,提取38個參數可以使系統識別率得到提高。

        為了進行連接詞識別,需要由訓練數據得到單個詞條的模型。方法為:首先從連接詞中分離出每個孤立的詞條,然后再進行孤立詞條的模型訓練。對于本系統不定長詞條的情況,每個詞條需要有一套初始的模型參數,然后按照分層構筑的HMM算法將所有詞串分成孤立的詞條。對每個詞條進行參數的重估,判斷是否收斂。如果差異小于某個域值就判斷為收斂;否則將得到的參數作為新的初始參數再進行重估,直到收斂。

        2實驗結果

        實驗采用30個人(15男,15女)的聲音模型進行識別。首先由10人(5男,5女)對5個命令詞(前進、后退、左移、右移、快速)分別進行初始數據訓練,每人每詞訓練10次,得到訓練模板。然后再由這30人隨機進行非特定人語音識別。采用6狀態的HMM模型,高斯混合度選為14,得到圖3的實驗結果。


        上一頁 1 2 下一頁

        評論


        相關推薦

        技術專區

        關閉
        主站蜘蛛池模板: 普定县| 分宜县| 浪卡子县| 武义县| 磐石市| 固始县| 固安县| 蒲江县| 西乌珠穆沁旗| 和政县| 宁城县| 育儿| 辽宁省| 兴国县| 海口市| 吐鲁番市| 宝应县| 龙州县| 辽宁省| 屯门区| 灵武市| 永川市| 红安县| 临漳县| 鲁甸县| 团风县| 磐安县| 类乌齐县| 广河县| 东阿县| 虹口区| 巴楚县| 宜章县| 柳林县| 阳东县| 大荔县| 西丰县| 四会市| 崇左市| 喀喇沁旗| 丰镇市|