(文章來源:百度智能云)
你可能發(fā)現(xiàn)這樣的場景,當(dāng)你坐在沙發(fā)上說一聲“打開電視機”,不需要遙控器,你就可以盡情觀賞電視節(jié)目;跟朋友聊天,無需手動敲字,語音輸入后便可實時轉(zhuǎn)化成文字,發(fā)送給對方,既省時又省事。這是怎么回事呢?這些設(shè)備是如何聽懂我們的語言的呢?這里不得不提的,就是語音識別技術(shù)?!笆裁词钦Z音識別?語音識別是完成從語音信息到機器可識別文本信息的轉(zhuǎn)化過程?!?/p>
語音識別就是讓機器擁有“耳朵”。當(dāng)然,不是簡單的給機器裝臺收音器就可以實現(xiàn),它需要不斷的進化。這就好像是人的聽覺系統(tǒng)的成長。一個出生的嬰兒能聽到聲音,但是聽不懂,往后隨著年齡的增長,不斷的學(xué)習(xí)、訓(xùn)練,能聽懂的東西越來越多。機器的語音識別也有類似的成長過程。語音識別技術(shù)的研究最早可以追溯到上世紀(jì)50年代,當(dāng)時的效果并不好。
直到21世紀(jì)初,特別是近10年,借助機器學(xué)習(xí)領(lǐng)域深度學(xué)習(xí)研究的發(fā)展,以及大數(shù)據(jù)語料的積累,語音識別技術(shù)才有了突飛猛進的發(fā)展。如今,語音識別的正確率已經(jīng)接近甚至部分超過了人類。比如,2017年,IBM、微軟相繼宣稱自家產(chǎn)品的語音識別錯誤率接近了人類,人類的語音識別錯誤率大約為5.1%,而百度更是通過像百度大腦中語音語義一體化這樣的技術(shù),把語音識別錯誤率控制在了3%左右。
根據(jù)識別內(nèi)容的范圍,語音識別可分為“封閉域識別”和“開放域識別”兩大類。封閉域識別,識別范圍為預(yù)先指定的字/詞集合,即算法只在開發(fā)者預(yù)先設(shè)定的封閉域識別詞的集合內(nèi)進行語音識別,對范圍之外的語音會拒識。因此,可將其聲學(xué)模型和語言模型進行裁剪,使得識別引擎的運算量變小。并且,可將引擎封到嵌入式芯片或者本地化的SDK中,從而使識別過程完全脫離云端,擺脫對網(wǎng)絡(luò)的依賴,并且不會影響識別率。
典型的應(yīng)用場景是,不涉及到多輪交互和多種語義說法的場景。比如,智能家居,主要指只能進行簡單指令交互的智能家居和電視盒子,語音控制指令一般只有“打開窗簾”、“打開電視”等,或者語音喚醒功能“小度小度”。開放域識別,無需預(yù)先指定識別詞集合,算法將在整個語言大集合范圍中進行識別。
為適應(yīng)此類場景,聲學(xué)模型和語言模型一般都比較大,引擎運算量也較大。因此,業(yè)界廠商基本上都只以云端形式提供。比如,百度云就可以提供這樣的產(chǎn)品。具體而言,開放域識別按照音頻錄入和結(jié)果獲取方式又可將產(chǎn)品形態(tài)分為3種:
產(chǎn)品形態(tài)一:流式上傳-同步獲取,應(yīng)用/軟件會對說話人的語音進行自動錄制,并將其連續(xù)上傳至云端,說話人在說完話的同時能實時地看到返回的文字。典型應(yīng)用場景:語音輸入法、實時字幕、語音筆記。
產(chǎn)品形態(tài)二:已錄制音頻文件上傳-異步獲取,音頻時長一般小于5小時。典型應(yīng)用場景:音/視頻字幕配置、實時性要求不高的客服語音質(zhì)檢和語音內(nèi)容審查等。
產(chǎn)品形態(tài)三:已錄制音頻文件上傳-同步獲取,音頻時長一般小于1分鐘。典型應(yīng)用場景:語音搜索、更智能的機器人語音交互。
當(dāng)前,百度語音識別技術(shù)已經(jīng)全面開放,包括語音識別、長語音識別、遠場語音識別、呼叫中心實時語音識別、呼叫中心音頻文件轉(zhuǎn)寫五大類別,數(shù)十項基礎(chǔ)技術(shù),并服務(wù)于眾多開發(fā)者。通過這樣的介紹,你大概了解到計算機的“耳朵”是如何練成的吧。如果在實踐中,智能音箱這類產(chǎn)品聽不懂你的話,你可以多說幾遍,像對待孩子那樣。只要這樣,智能音箱就會越來越懂你。





