3 月 1 日,由 Mozilla 基金會發起的 Common Voice 項目,發布新版語音識別數據集,包括來自 42000 名貢獻者,超過 1400 小時的語音樣本數據,涵蓋包括英語、法語、德語、荷蘭語、漢語在內的 18 種語言。
(數據集鏈接:https://voice.mozilla.org/zh-CN/datasets)
Common Voice 項目可以集成到由 DeepSpeech,也就是基于 DeepSpeech 語音識別框架的一套語音轉文本的開源語音識別引擎。它不僅包括語音片段,還包括對訓練語音引擎有用的元數據,如說話者的年齡、性別和口音,收集這些語音片段需要做大量的工作。目前 DeepSpeech 項目已在GitHub上獲得了 9418 個 Star,1674 個 fork。
(GitHub 傳送門:https://github.com/mozilla/DeepSpeech)
它目前是同類項目中最大的多語言數據集之一,Mozilla 聲稱,此次發布的數據集比八個月前公開發布的 Common Voice 語料庫要更加龐大,其中包含來自 20,000 名英語志愿者的 500 小時語音數據(400,000 條錄音),而且語料庫還將進一步擴充。該基金會表示,通過 Common Voice網站和移動應用,他們正在積極開展 70 種語言的數據收集工作。
2017 年 6 月,Mozilla 宣布推出 Project Common Voice 眾包計劃,旨在為語音識別應用構建開源數據集。他們邀請來自世界各地的志愿者通過網絡和移動應用貢獻語音記錄的文本片段,當然,他們會非常嚴格地保護項目貢獻者的隱私。
2017 年 11 月,Mozilla 基金會發布了第一批 Common Voice 英語數據集成果,該數據集包括大約 500 個小時的語音數據,以及來自 20,000 個志愿者貢獻的 400,000 條錄音。2018 年 6 月,Mozilla開始收集法語、德語和威爾士語等 40 多種語種的眾包語音數據。
為了簡化流程,Mozilla 本周還推出了一款改進的 Common Voice web 工具,其可以對不同的語音剪輯進行更改,還增加了用于查看、重新錄制和跳過剪輯的新控件,一個可以快速切換儀表板的“說話”和“收聽”模式的開關,以及選擇退出語音會話的選項。此外,它正在推出新的配置文件功能,允許用戶跨語言跟蹤他們的語言進度和指標,并添加人口統計信息。
未來幾個月里,Mozilla 表示將嘗試不同的方法來增加數據收集的數量,提升數據質量,并且最終計劃使用部分錄音數據來開發語音產品。
語音技術將是一大科技技術革新,但可惜的是,目前操縱這場革新游戲的只有大型科技公司。
首先,科技巨頭一般都來自科技強國,而用于訓練機器的語音數據目前更偏向于英語、中文等一些特定的語言,在多樣性方面,顯然這并不適合全人類。
其次,像亞馬遜、谷歌、蘋果這樣的科技巨頭正在大力投資他們的智能助手,但由此產生的數據集并不對外開放,而像學生、創業公司和對構建語音設備感興趣的人只能訪問非常有限的數據集,而且可能還需要付費購買。
基于此,Mozilla 基金會認為,沒有足夠的數據開放給公眾使用,將會扼殺科技創新,開放語音數據集則可以讓更多人參與進來,讓任何人都可以自由地使用該數據集,將語音技術嵌入到各種應用和服務中。這類似于 OpenStreetMap這樣的開放眾包項目,該項目為開發人員提供開放且可自由使用的世界地圖。
在新的數據集發布后,外國網友們也對此進行了評價:
看到開放數據領域的創新真是太好了。最近有許多斷言認為,質量更高的 ML 數據將要比 ML 算法更重要,這么說是對的,特別是在語音識別等領域。然而,要趕上科技巨頭還有很長的路要走。因為在 15 年前,就有公司每年會處理 100 萬分鐘的標簽語音數據。
除非我們在這方面進行投資,否則老牌企業和新進入這個市場的企業之間的數據差距將繼續擴大。
另有網友花了時間驗證了一些語音,他在評論中表達了質疑稱:
至少在我能聽出來的范圍內,我沒有聽到任何句子說錯了。不過,我確實遇到了大量非常糟糕的樣本,以至于有些難以理解。比如口音重、有背景噪音或者非常安靜,而且他覺得一些“機械的”樣本是通過文本轉語音軟件生成的。所以 Common Voice 能提供優質數據嗎?
還有網友拿開源數據集 LibriSpeech 做了對比:
ASR 訓練的有聲讀物是絕對不錯的。事實上,在 Common Voice 之前,最大的 ASR 公開訓練數據集是 LibriSpeech (http://www.openslr.org/12/)。同樣值得注意的是,Mozilla 的 DeepSpeech 模型的第一個版本使用 LibriSpeech 進行了訓練和測試。但是正如其他人提到的由于一些數據集不夠好,由 Common Voice 的數據集訓練的有聲讀物存在一些瑕疵。
但是 Common Voice 的目標不是取代 LibreSpeech 或其他開放數據集(如 TED 演講)作為訓練數據集,而是它們的有益補充。
總之,相較于目前已開源的其他語音數據集類型單一,數據量不足,數據雜亂的情況,雖然而 Common Voice 的數據集有不足,但在綜合多樣性、豐富性和質量方面都遙遙領先。它有望被全世界更大范圍內的開發者們所關注并受益,也將為語音技術的發展帶來不可估量的價值。
-
語音識別
+關注
關注
38文章
1725瀏覽量
112567 -
語音技術
+關注
關注
2文章
226瀏覽量
21267 -
數據集
+關注
關注
4文章
1205瀏覽量
24649
原文標題:1400小時開源語音數據集,你想要都在這兒
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論