深刻了解webkit內核第一篇:JavaScript引擎深度解析

     看到HorkeyChen寫的文章《[WebKit] JavaScriptCore解析--基礎篇(三)從腳本代碼到JIT編譯的代碼實現》,寫的很好,深受啓發。想補充一些Horkey沒有寫到的細節好比字節碼是如何生成的等等,爲此成文。css


      JSC對JavaScript的處理,其實與Webkit對CSS的處理許多地方是相似的,它這麼幾個部分:程序員

(1)詞法分析->出來詞語(Token);web

(2)語法分析->出來抽象語法樹(AST:Abstract Syntax Tree);微信

(3)遍歷抽象語法樹->生成字節碼(Bytecode);app

(4)用解釋器(LLInt:Low Level Interpreter)執行字節碼;微信公衆平臺

(5)若是性能不夠好就用Baseline JIT編譯字節碼生成機器碼、而後執行此機器碼;函數

(6)若是性能還不夠好,就用DFG JIT從新編譯字節碼生成更好的機器碼、而後執行此機器碼;性能

(7)最後,若是還很差,就祭出重器--虛擬器(LLVM:Low Level Virtual Machine)來編譯DFG的中間表示代碼、生成更高優化的機器碼並執行。接下來,我將會用一下系列文章描述此過程。優化

      其中,步驟一、2是相似的,三、四、5步的思想,CSS JIT也是採用相似方法,請參考[1]。想寫寫JSC的文章,用菜鳥和愚公移山的方式,敲開JSC的冰山一角。ui

本篇主要描述詞法和語法解析的細節。

 1、 JavaScriptCore的詞法分析器工做流程分析

    W3C是這麼解釋詞法和語法工做流程的:


 詞法器Tokenizer的工做過程以下,就是不斷從字符串中尋找一個個的詞(Token),好比找到連續的「true」字符串,就建立一個TokenTrue。詞法器工做過程以下:

JavaScriptCore/interpreter/interpreter.cpp:
template <typename CharType>

template <ParserMode mode> TokenType LiteralParser<CharType>::Lexer::lex(LiteralParserToken<CharType>& token)
{
    while (m_ptr < m_end && isJSONWhiteSpace(*m_ptr))
        ++m_ptr;

    if (m_ptr >= m_end) {
        token.type = TokEnd;
        token.start = token.end = m_ptr;
        return TokEnd;
    }
    token.type = TokError;
    token.start = m_ptr;
    switch (*m_ptr) {
        case '[':
            token.type = TokLBracket;
            token.end = ++m_ptr;
            return TokLBracket;
        case ']':
            token.type = TokRBracket;
            token.end = ++m_ptr;
            return TokRBracket;
        case '(':
            token.type = TokLParen;
            token.end = ++m_ptr;
            return TokLParen;
        case ')':
            token.type = TokRParen;
            token.end = ++m_ptr;
            return TokRParen;
        case ',':
            token.type = TokComma;
            token.end = ++m_ptr;
            return TokComma;
        case ':':
            token.type = TokColon;
            token.end = ++m_ptr;
            return TokColon;
        case '"':
            return lexString<mode, '"'>(token);
        case 't':
            if (m_end - m_ptr >= 4 && m_ptr[1] == 'r' && m_ptr[2] == 'u' && m_ptr[3] == 'e') {
                m_ptr += 4;
                token.type = TokTrue;
                token.end = m_ptr;
                return TokTrue;
            }
            break;
        case '-':
        case '0':
        ...
        case '9':
            return lexNumber(token);
    }
    if (m_ptr < m_end) {
        if (*m_ptr == '.') {
            token.type = TokDot;
            token.end = ++m_ptr;
            return TokDot;
        }
        if (*m_ptr == '=') {
            token.type = TokAssign;
            token.end = ++m_ptr;
            return TokAssign;
        }
        if (*m_ptr == ';') {
            token.type = TokSemi;
            token.end = ++m_ptr;
            return TokAssign;
        }
        if (isASCIIAlpha(*m_ptr) || *m_ptr == '_' || *m_ptr == '$')
            return lexIdentifier(token);
        if (*m_ptr == '\'') {
            return lexString<mode, '\''>(token);
        }
    }
    m_lexErrorMessage = String::format("Unrecognized token '%c'", *m_ptr).impl();
    return TokError;
}

通過此過程,一個完整的JSC世界的Token就生成了。而後,再進行語法分析,生成抽象語法樹.

JavaScriptCore/parser/parser.cpp:

<span style="font-family: Arial, Helvetica, sans-serif;">PassRefPtr<ParsedNode> Parser<LexerType>::parse(JSGlobalObject* lexicalGlobalObject, Debugger* debugger, ExecState* debuggerExecState, JSObject** exception)</span>
{
    ASSERT(lexicalGlobalObject);
    ASSERT(exception && !*exception);
    int errLine;
    UString errMsg;

    if (ParsedNode::scopeIsFunction)
        m_lexer->setIsReparsing();

    m_sourceElements = 0;

    errLine = -1;
    errMsg = UString();

    UString parseError = parseInner();
    。。。
}

UString Parser<LexerType>::parseInner()

{
    UString parseError = UString();
    
    unsigned oldFunctionCacheSize = m_functionCache ? m_functionCache->byteSize() : 0;
    
        //抽象語法樹Builder:
    ASTBuilder context(const_cast<JSGlobalData*>(m_globalData), const_cast<SourceCode*>(m_source));
    if (m_lexer->isReparsing())
        m_statementDepth--;
    ScopeRef scope = currentScope();
    
        //開始解析生成語法樹的一個節點:
    SourceElements* sourceElements = parseSourceElements<CheckForStrictMode>(context);
    if (!sourceElements || !consume(EOFTOK))


         舉例說來,根據Token的類型,JSC認爲輸入的Token是一個常量聲明,就會使用以下的模板函數生成語法節點(Node),而後放入ASTBuilder裏面:

    接下來,就會調用BytecodeGenerator::generate生成字節碼,具體分下節分析。咱們先看看下面來自JavaScript的一個個語法樹節點生成字節碼的過程:

JavaScriptCore/bytecompiler/NodeCodeGen.cpp:
RegisterID* BooleanNode::emitBytecode(BytecodeGenerator& generator, RegisterID* dst)


第一時間得到博客更新提醒,以及更多技術信息分享,歡迎關注我的微信公衆平臺:程序員互動聯盟(coder_online)

1.直接幫你解答wekit技術疑點

2.第一時間得到業內十多個領域技術文章

3.針對文章內疑點提出問題,第一時間回覆你,幫你耐心解答

4.讓你和原創做者成爲很好的朋友,拓展本身的人脈資源

掃一掃下方二維碼或搜索微信號coder_online便可關注,咱們能夠在線交流。


引用:

1 https://www.webkit.org/blog/3271/webkit-css-selector-jit-compiler/

2 http://blog.csdn.net/horkychen/article/details/8928578

相關文章
相關標籤/搜索