受微軟美女員工 Grace Peng 邀請(也多是套路???),參加微軟神經語音(沒錯,就是神經)曉曉的試用,首先是看到了羣裏面的消息,而後就是發送申請,等待回覆,過了幾天後,收到了一個機器人發來的帳號密碼,告訴我已經幫我申請了免費試用的帳號,直接登陸便可使用了。其實一直都有接觸各類 TTS 的服務,可是在測試微軟曉曉的過程當中發現,在擬人方面,曉曉的發音彷佛被訓練得很不錯,在語法方面,曉曉支持 SSML 語法,具體參見:https://www.w3.org/TR/speech-synthesis/ 什麼是 SSML,來自百度百科 語音合成標記語言 的解釋。git
話很少說,立刻開始,首先登陸 Azure portal,github
點擊左側列表中的 「全部資源」鏈接,進入資源管理面板
api
在資源面板點擊剛纔建立好的 MySpeechService,進入詳情後點擊 「鍵」(keys),能夠看到已經生成好的密鑰,等一下調用 Speech 服務的時候須要用到,好了,準備工做已經完成了,下面就寫兩行代碼試試。app
建立一個控制檯項目:MySpeechApp,進行一些簡單的編碼工做,在正式編碼以前,須要來了解一下調用流程async
從上面的流程圖能夠了解到,首先,咱們須要使用建立好的 Speech 服務中的密鑰去換取訪問 Token ,而後,使用 Token 調用 Speech 主機,傳遞文本,下載語音文件,整個流程結束。測試
好了,流程已經看懂了,下面正式開始編碼。字體
class Program { private const string TOKEN_URI = "https://southeastasia.api.cognitive.microsoft.com/sts/v1.0/issuetoken"; private const string SUB_KEY = "36290bbded8f4cb59e34e50ed7be60b0"; private const string HOST = "https://southeastasia.tts.speech.microsoft.com/cognitiveservices/v1"; private const string RESOURCE_NAME = "MySpeechService"; }
TOKEN_URI:換取 Token 調用的 URL
SUB_KEY:資源密鑰,就是 1.4 中的 鍵(keys)
HOST:Speech 主機,由於給我分配的是東南亞的,因此這裏地區也必須選擇 southeastasia,資源面板上也沒有說明,一開始使用的是 westus ,老是提示身份驗證異常,坑了好幾分鐘。
RESOURCE_NAME:資源名稱,就是咱們建立的服務名,這沒什麼好說的ui
private static async Task<string> GetTokenAsync() { using (var httpClient = new HttpClient()) { httpClient.DefaultRequestHeaders.Add("Ocp-Apim-Subscription-Key", SUB_KEY); var builder = new UriBuilder(TOKEN_URI); var result = await httpClient.PostAsync(builder.Uri.AbsoluteUri, null); return await result.Content.ReadAsStringAsync(); } }
代碼比較簡單,就是一個 Http 請求的封裝而已,核心內容是 httpClient.DefaultRequestHeaders.Add("Ocp-Apim-Subscription-Key", SUB_KEY);,把資源密鑰加入請求頭中。編碼
private static async Task RequestSSML(string authToken, string text, string fileName) { Console.WriteLine("準備中..."); using (var httpClient = new HttpClient()) { var body = "<speak xmlns=\"http://www.w3.org/2001/10/synthesis\" xmlns:mstts=\"http://www.w3.org/2001/mstts\" version=\"1.0\" xml:lang=\"zh-CN\"><voice name=\"Microsoft Server Speech Text to Speech Voice (zh-CN, XiaoxiaoNeural)\">" + text + "</voice></speak>"; var request = new HttpRequestMessage() { Method = HttpMethod.Post, RequestUri = new Uri(HOST), Content = new StringContent(body, Encoding.UTF8, "application/ssml+xml") }; request.Headers.Add("Authorization", "Bearer " + authToken); request.Headers.Add("Connection", "Keep-Alive"); request.Headers.Add("User-Agent", RESOURCE_NAME); request.Headers.Add("X-Microsoft-OutputFormat", "riff-24khz-16bit-mono-pcm"); Console.WriteLine("正在進行遠程過程調用..."); var response = await httpClient.SendAsync(request); if (response.StatusCode != System.Net.HttpStatusCode.OK) { Console.WriteLine("The Response {0}", response.StatusCode); return; } using (var stream = await response.Content.ReadAsStreamAsync()) { stream.Position = 0; Console.WriteLine("正在下載語音文件 {0} ...", fileName); using (var fs = new FileStream(fileName, FileMode.Create, FileAccess.Write, FileShare.ReadWrite)) { await stream.CopyToAsync(fs); fs.Close(); } } Console.WriteLine("文本轉換語音成功"); Console.WriteLine("===============\n"); } }
這段代碼也很是的簡單,首先是構造一個 SSML 文件格式的 Body,並在請求頭中加入 AuthToken 還有其它的一些頭部標識,而後就開始正式的請求語音文件,最後將合成好的語音文件保存到本地。spa
static void Main(string[] args) { var result = GetTokenAsync().ConfigureAwait(false).GetAwaiter(); string token = result.GetResult(); var text1 = "你好,我是來自博客園的技術愛好者 Ron Liang;很高興能夠試用 Speech,但願一切順利。"; var task1 = RequestSSML(token, text1, "1.wav"); task1.ConfigureAwait(false).GetAwaiter().GetResult(); var text2 = "小哥哥,來一發<prosody rate=\"-40.00%\" volume=\"-80.00%\" duration=\"1.5s\">嗎?</prosody>"; var task2 = RequestSSML(token, text2, "2.wav"); task2.ConfigureAwait(false).GetAwaiter().GetResult(); var text3 = "蒿嗨偶,肝絕忍僧衣襟搗打的高草,肝絕忍僧衣襟搗打了巔峯。蒿贈寒,蒿朵母,蒿懸猜。"; var task3 = RequestSSML(token, text3, "3.wav"); task3.ConfigureAwait(false).GetAwaiter().GetResult(); Console.WriteLine("按任意鍵退出"); Console.ReadKey(); }
上面有3段文本,對應合成3段語音,1和3是純粹搗亂的,第二段文本中加入了SSML標記prosody,其屬性表示:rate=-40%(下降語速),volume=80%(下降音量),duration=1.5s(延時1.5s)
很是完美的運行成功,咱們獲得了3個語音文件,分別是:
總體來講,在普通的語境環境下,曉曉的表現仍是不錯的,總體使人滿意,可是在自定義 SSML 的時候,就很是的麻煩,我調整了不下30分鐘,都沒有達到一個使人滿意的結果;固然,曉曉還有別的優勢,好比能夠自定義語音字體,你能夠請聲優來訓練專業你本身的語音字體,只爲你一我的服務。
代碼託管在GitHub上了
https://github.com/lianggx/Examples/tree/master/MySpeechApp