AI(Artificial Intelligence)正在不斷的改變着各個行業的形態和人們的生活方式,圖像識別、語音識別、天然語言理解等 AI 技術正在自動駕駛、智能機器人、人臉識別、智能助理等領域中發揮着愈來愈重要的做用。html
那麼當手繪視頻遇到 AI,有 AI 的手繪視頻領域,有 AI 的 UWP 手繪視頻創做工具,會發生些什麼呢?咱們從12月23日的一次發佈會開始講起吧:算法
在本次發佈會上,來畫視頻發佈了正式上線的 iOS Android 手繪視頻 App 和一系列新功能,二更、同道大叔、Prezi 創始人等也帶來了短視頻行業的精彩分享,而在 AI 方面,更是發佈了兩大核心功能:智能配音和智能繪畫。學習
衆所周知,在視頻中,圖像和聲音是最重要的兩個因素,而對應到手繪視頻中,則是配音和手繪素材:優化
1. 配音動畫
首先來講配音,在配音方面,來畫與科大訊飛進行了深度合做。科大訊飛是國內外語音識別和語音生成領域領先的人工智能公司,而本次合做也是科大訊飛在短視頻領域的首次嘗試,雙方都對本次合做寄予了很高的期待。過往你們想製做一個短視頻時,配音須要專業配音人員完成。由於咱們不少人的聲音或者對語速、語音的控制完成不了專業的要求。但依靠來畫和科大訊飛完成的智能配音功能,以下圖的操做方式,用戶只須要輸入簡單的文字以及你想使用誰的聲音。好比葛優、林志玲或者其餘人的聲音,能夠設置基本語速,還能夠作相應停頓,就能夠一鍵生成視頻中須要的配音,把它結合到手繪視頻中。人工智能
因爲手繪視頻不像拍攝視頻那樣對配音的音畫同步要求那麼嚴格,咱們在實現時更多的是針對手繪視頻的每一個分鏡頭進行配音生成,讓每一個分鏡頭的配音是和當前畫面同步的。針對每一個分鏡頭,能夠設置不一樣的語音來源,不一樣的語速,配合轉場動畫設置不一樣的停頓時間。spa
在技術實現上,藉助科大訊飛的 tts 技術,得到每一個分組的 mp3 語音文件,在手繪視頻預覽和生成時,把多個 mp3 文件合成到視頻文件的音軌中,設置不一樣的音量和語音開始時間、語音長度等信息。爲保證語音生成的成功率(時長和同步方面),在輸入文字後,能夠根據文字數量,以及設置的語速和停頓時間,來預估語音的時長,減小反覆轉換嘗試。3d
2. 手繪素材視頻
在技術實現方面,智能識別是圖像識別的深度學習,具體說是手繪草稿的識別範疇;在算法模型的訓練方面,咱們對接近 400 個分類的 4000w 個 SVG 數據進行了數據清洗和標註、訓練,目前算法對於常見圖形的識別效果很好,隨着這一功能的上線,後面也會增強更多分類的數據採集和訓練工做;而智能優化和智能生成,除了對於草稿的圖像識別,還有對於繪製圖形的路徑理解和目標圖形的路徑理解,這也是後面突破的重點方向。
結合了配音功能和手繪素材智能識別的 UWP 來畫視頻將會在接下來發布,歡迎你們下載使用,多提寶貴意見。
對這兩個方面感興趣的朋友,歡迎和我交流,謝謝!