前端慌不慌?AI根據手繪原型生成HTML【附代碼】

本文經AI新媒體量子位(公衆號ID:qbitai )受權轉載,轉載請聯繫出處。前端

寫個網頁能有多麻煩?在大多數公司裏,這項工做分爲三步:git

產品經理完成用戶調研任務後,列出一系列技術要求;程序員

設計師根據這些要求來設計低保真原型,逐漸修改獲得高保真原型和UI設計圖;github

工程師將這些設計圖實現爲代碼,最終變成用戶使用的產品。bootstrap

這麼多環節,任何地方出一點問題,都會拉長開發週期。所以,很多公司,好比Airbnb已經開始用機器學習來提升這個過程的效率。瀏覽器

△ Airbnb內部的AI工具,從圖紙到代碼一步到位網絡

看起來很美好,但Airbnb還沒公開該模型中端到端訓練的細節,以及手工設計的圖像特徵對該模型的貢獻度。這是該公司特有的閉源解決方案專利,可能不會進行公開。前端工程師

好在,一個叫Ashwin Kumar的程序員建立了一個開源版本,讓開發者/設計師的工做變得更簡單。架構

如下內容翻譯自他的博客:框架

理想上,這個模型能夠根據網站設計的簡單手繪原型,很快地生成一個可用的HTML網站:

△ SketchCode模型利用手繪線框圖來生成HTML網站

事實上,上面例子就是利用訓練好的模型在測試集上生成的一個實際網站,代碼請訪問:https://github.com/ashnkumar/sketch-code。

從圖像標註中獲取靈感

目前要解決的問題屬於一種更普遍的任務,叫作程序綜合(program synthesis),即自動生成工做源代碼。儘管不少程序綜合研究經過天然語言規範或執行追蹤法來生成代碼,但在當前任務中,我會充分利用源圖像,即給出的手繪線框圖來展開工做。

在機器學習中有一個十分熱門的研究領域,稱爲圖像標註(image caption),目的是構建一種把圖像和文本鏈接在一塊兒的模型,特別是用於生成源圖像內容的描述。

△ 圖像標註模型生成源圖像的文本描述

我從一篇pix2code論文和另外一個應用這種方法的相關項目中得到靈感,決定把個人任務按照圖像標註方式來實現,把繪製的網站線框圖做爲輸入圖像,並將其相應的HTML代碼做爲其輸出內容。

注:上段提到的兩個參考項目分別是

pix2code論文:https://arxiv.org/abs/1705.07962floydhub教程:https://blog.floydhub.com/turning-design-mockups-into-code-with-deep-learning/?source=techstories.org

獲取合適的數據集

肯定圖像標註方法後,理想中使用的訓練數據集會包含成千上萬對手繪線框圖和對應的HTML輸出代碼。可是,目前尚未我想要的相關數據集,我只好爲這個任務來建立數據集。

最開始,我嘗試了pix2code論文給出的開源數據集,該數據集由1750張綜合生成網站的截圖及其相應源代碼組成。

△ pix2code數據集中的生成網站圖片和源代碼

這是一個很好的數據集,有幾個有趣的地方:

該數據集中的每一個生成網站都包含幾個簡單的輔助程序元素,如按鈕、文本框和DIV對象。儘管這意味着這個模型受限於將這些少數元素做爲它的輸出內容,可是這些元素可經過選擇生成網絡來修改和擴展。這種方法應該很容易地推廣到更大的元素詞彙表。

每一個樣本的源代碼都是由領域專用語言(DSL)的令牌組成,這是該論文做者爲該任務所建立的。每一個令牌對應於HTML和CSS的一個片斷,且加入編譯器把DSL轉換爲運行的HTML代碼。

彩色網站圖像變手繪圖

爲了修改個人任務數據集,我要讓網站圖像看起來像手工繪製出的。我嘗試使用Python中的OpenCV庫和PIL庫等工具對每張圖像進行修改,包括灰度轉換和輪廓檢測。

最終,我決定直接修改原始網站的CSS樣式表,經過執行如下操做:

更改頁面上元素的邊框半徑來平滑按鈕和DIV對象的邊緣;

模仿繪製的草圖來調整邊框的粗細,並添加陰影;

將原有字體更改成相似手寫的字體;

最終實現的流程中還增長了一個步驟,經過添加傾斜、移動和旋轉來實現圖像加強,來模擬實際繪製草圖中的變化。

使用圖像標註模型架構

如今,我已經處理好數據集,接下來是構建模型。

我利用了圖像標註中使用的模型架構,該架構由三個主要部分組成:

一種使用卷積神經網絡(CNN)的計算機視覺模型,從源圖像提取圖像特徵;

一種包含門控單元GRU的語言模型,對源代碼令牌序列進行編碼;

一個解碼器模型,也屬於GRU單元,把前兩個步驟的輸出做爲輸入,並預測序列中的下一個令牌。

△ 以令牌序列爲輸入來訓練模型

爲了訓練模型,我將源代碼拆分爲令牌序列。模型的輸入爲單個部分序列及它的源圖像,其標籤是文本中的下一個令牌。該模型使用交叉熵函數做爲損失函數,將模型的下個預測令牌與實際的下個令牌進行比較。

在模型從頭開始生成代碼的過程當中,該推理方式稍有不一樣。圖像仍然經過CNN網絡進行處理,但文本處理開始時僅採用一個啓動序列。在每一個步驟中,模型對序列中輸出的下個預測令牌將會添加到當前輸入序列,並做爲新的輸入序列送到模型中;重複此操做直到模型的預測令牌爲,或該過程達到每一個文本中令牌數目的預約義值。

當模型生成一組預測令牌後,編譯器就會將DSL令牌轉換爲HTML代碼,這些HTML代碼能夠在任何瀏覽器中運行。

用BLEU分數評估模型

我決定使用BLEU分數來評估模型。這是機器翻譯任務中經常使用的一種度量標準,經過在給定相同輸入的狀況下,衡量機器生成的文本與人類可能產生內容的近似程度。

實際上,BLEU經過比較生成文本和參考文本的N元序列,以建立修改後的準確版本。它很是適用於這個項目,由於它會影響生成HTML代碼中的實際元素,以及它們之間的相互關係。

最棒的是,我還能夠經過檢查生成的網站來比較當前的實際BLEU分數。

△ 觀察BLEU分數

當BLEU分數爲1.0時,則說明給定源圖像後該模型能在正確位置設置合適的元素,而較低的BLEU分數這說明模型預測了錯誤元素或是把它們放在相對不合適的位置。咱們最終模型在評估數據集上的BLEU分數爲0.76。

福利:定製網頁風格

後來,我還想到,因爲該模型只生成當前頁面的框架,即文本的令牌,所以我能夠在編譯過程當中添加一個定製的CSS層,並馬上獲得不一樣風格的生成網站。

△ 一個手繪圖生成多種風格的網頁

把風格定製和模型生成兩個過程分開,在使用模型時帶來了不少好處:

若是想要將SketchCode模型應用到本身公司的產品中,前端工程師能夠直接使用該模型,只需更改一個CSS文件來匹配該公司的網頁設計風格;

該模型內置的可擴展性,即經過單一源圖像,模型能夠迅速編譯出多種不一樣的預約義風格,所以用戶能夠設想出多種可能的網站風格,並在瀏覽器中瀏覽這些生成網頁。

總結和展望

受到圖像標註研究的啓發,SketchCode模型可以在幾秒鐘內將手繪網站線框圖轉換爲可用的HTML網站。

可是,該模型還存在一些問題,這也是我接下來可能的工做方向:

因爲這個模型只使用了16個元素進行訓練,因此它不能預測這些數據之外的令牌。下一步方向多是使用更多元素來生成更多的網站樣本,包括網站圖片,下拉菜單和窗體,可參考啓動程序組件(https://getbootstrap.com/docs/4.0/components/buttons/)來得到思路;

在實際網站構建中,存在不少變化。建立一個能更好反映這種變化的訓練集,是提升生成效果的一種好方法,能夠經過獲取更多網站的HTML/CSS代碼以及內容截圖來提升;

手繪圖紙也存在不少CSS修改技巧沒法捕捉到的變化。解決這個問題的一種好方法是使用生成對抗網絡GAN來建立更逼真的繪製網站圖像。

相關地址

代碼:https://github.com/ashnkumar/sketch-code

原文:https://blog.insightdatascience.com/automated-front-end-development-using-deep-learning-3169dd086e82

End

相關文章
相關標籤/搜索