8月18日,谷歌宣布開源Android語音識別轉錄工具Live Transcribe的語音引擎。
這家公司希望這樣做可以讓任何開發人員為長篇對話提供字幕,減少因網絡延遲、斷網等問題導致的溝通障礙。源代碼現在可以在GitHub上獲得。這意味著無論你是出國或是與新朋友見面,Live Transcribe都可以幫助你進行溝通。
交流時可以實時暢通(只要有網絡)谷歌于今年2月發布了Live Transcribe。該工具使用機器學習算法將音頻轉換為實時字幕,與Android即將推出的Live Caption功能不同,Live Transcribe是一種全屏體驗,使用智能手機的麥克風(或外接麥克風),并依賴于Google Cloud Speech API。Live Transcribe可以用70多種語言和方言標題實時口語。另一個主要區別是Live Transcribe可在18億臺Android設備上使用(當Live Caption在今年晚些時候推出時,它只適用于部分Android Q設備)。
在云上工作
谷歌的Cloud Speech API目前不支持發送無限長的音頻流。此外,依賴云意味著網絡連接、數據成本和延遲方面都有潛在問題。
結果,語音引擎在達到超時之前關閉并重新啟動流請求,包括在長時間靜默期間重新開始會話并且每當語音中檢測到暫停時關閉。在會話之間,語音引擎還在本地緩沖音頻,然后在重新連接時發送它。因此,谷歌避免了截斷的句子或單詞,并減少了會話中丟失的文本量。
70多種語言和方言中挑選自己合適的為了降低帶寬需求和成本,谷歌還評估了不同的音頻編解碼器:FLAC,AMR-WB和Opus。FLAC(無損編解碼器)可以保持準確性,不會節省太多數據,并且具有明顯的編解碼器延遲。AMR-WB可以節省大量數據,但在嘈雜的環境中準確度較低。
與此同時,Opus允許數據速率比大多數音樂流媒體服務低許多倍,同時仍保留音頻信號的重要細節。谷歌還會在長時間的靜音期間使用語音檢測來關閉網絡連接。
總體而言,該團隊能夠實現“在不影響準確性的情況下,將數據使用量減少10倍”。
為了比Cloud Speech API更進一步減少延遲,Live Transcribe使用自定義Opus編碼器。編碼器恰好提高了比特率,使“延遲在視覺上無法區分發送未壓縮的音頻”。
Live Transcribe語音引擎功能
谷歌列出了語音引擎的以下功能(不包括說話人識別):
該文檔指出這些庫與生產應用程序Live Transcribe中運行的庫“幾乎相同”。谷歌已對其進行了“廣泛的現場測試和單元測試”,但測試本身并非開源。但谷歌確實提供了APK,因此開發者可以在不構建任何代碼的情況下試用該庫。
-
谷歌
+關注
關注
27文章
6142瀏覽量
105100 -
語音識別
+關注
關注
38文章
1721瀏覽量
112547 -
引擎
+關注
關注
1文章
360瀏覽量
22531
發布評論請先 登錄
相關推薦
評論