Python 之父再發文:構建一個 PEG 解析器

花下貓語: Python 之父在 Medium 上開了博客,如今寫了兩篇文章,本文是第二篇的譯文。前一篇的譯文 在此 ,宣佈了將要用 PEG 解析器來替換當前的 pgen 解析器。python

本文主要介紹了構建一個 PEG 解析器的大致思路,並介紹了一些基本的語法規則。根據 Python 之父的描述,這個 PEG 解析器仍是一個很籠統的實驗品,而他也預告了,將會在之後的系列文章中豐富這個解析器。數組

閱讀這篇文章就像在讀一篇教程,雖然很難看懂,可是感受很奇妙:咱們居然能夠見證 Python 之父如何考慮問題、如何做設計、如何一點一點地豐富功能、而且傳授出來。這種機會很是可貴啊!app

我會持續跟進後續文章的翻譯,因爲能力有限,可能翻譯中有不到位之處,懇請讀者們批評指正。函數

本文原創並首發於公衆號【Python貓】,未經受權,請勿轉載。學習

原文地址:https://mp.weixin.qq.com/s/yUQPeqc_uSRGe5lUi50kVQui


原題 | Building a PEG Parseratom

做者 | Guido van Rossum(Python之父)翻譯

譯者 | 豌豆花下貓(「Python貓」公衆號做者)設計

原文 | https://medium.com/@gvanrossum_83706/building-a-peg-parser-d4869b5958fb指針

聲明 | 翻譯是出於交流學習的目的,歡迎轉載,但請保留本文出處,請勿用於商業或非法用途。

僅僅理解了 PEG 解析器的小部分,我就受到了啓發,決定本身構建一個。結果可能不是一個很棒的通用型的 PEG 解析器生成器——這類生成器已經有不少了(例如 TatSu,寫於 Python,生成 Python 代碼)——但這是一個學習 PEG 的好辦法,推動了個人目標,即用由 PEG 語法構建的解析器替換 CPython 的解析器。

在本文中,經過展現一個簡單的手寫解析器,我爲如何理解解析器的工做原理奠基了基礎。

(順便說一句,做爲一個實驗,我不會在文中處處放參考連接。若是你有什麼不明白的東西,請 Google 之 :-)

最多見的 PEG 解析方式是使用能夠無限回溯的遞歸降低解析器。

以上週文章中的玩具語言爲例:

statement: assignment | expr | if_statement
expr: expr '+' term | expr '-' term | term
term: term '*' atom | term '/' atom | atom
atom: NAME | NUMBER | '(' expr ')'
assignment: target '=' expr
target: NAME
if_statement: 'if' expr ':' statement

這種語言中超級抽象的遞歸降低解析器將爲每一個符號定義一個函數,該函數會嘗試調用與備選項相對應的函數。

例如,對於statement,咱們有以下函數:

def statement():
    if assignment():
        return True
   if expr():
        return True
    if if_statement():
        return True
    return False

固然這是極其簡化的版本:沒有考慮解析器中必要的輸入及輸出。

咱們就從輸入端開始講吧。

經典解析器使用單獨的標記生成器,來將輸入(文本文件或字符串)分解成一系列的標記,例如關鍵字、標識符(名稱)、數字與運算符。

(譯註:標記生成器,即 tokenizer,用於生成標記 token。如下簡稱爲「標記器」)

PEG 解析器(像其它現代解析器,如 ANTLR)一般會把標記與解析過程統一。可是對於個人項目,我選擇保留單獨的標記器。

對 Python 作標記太複雜了,我不想拘泥於 PEG 的形式來從新實現。

例如,你必須得記錄縮進(這須要在標記器內使用堆棧),並且在 Python 中處理換行頗有趣(它們很重要,除了在匹配的括號內)。字符串的多種引號也會增長複雜性。

簡而言之,我不抱怨 Python 現有的標記器,因此我想保留它。(CPython 有兩個標記器,一個是解析器在內部使用的,寫於 C,另外一個在標準庫中,用純 Python 重寫。它對個人項目頗有幫助。)

經典的標記器一般具備一個簡單的接口,供你做函數調用,例如 get_token() ,它返回輸入內容中的下一個標記,每次消費掉幾個字符。

tokenize 模塊對它做了進一步簡化:它的基礎 API 是一個生成器,每次生成(yield)一個標記。

每一個標記都是一個 TypeInfo 對象,它有幾個字段,其中最重要之一表示的是標記的類型(例如 NAMENUMBERSTRING),還有一個很重要的是字符串值,表示該標記所包含的字符(例如 abc42 或者 "hello world")。還有的字段會指明每一個標記出如今輸入文件中的座標,這對於報告錯誤頗有用。

有一個特殊的標記類型是 ENDMARKER ,它表示的是抵達了輸入文件的末尾。若是你忽略它,並嘗試獲取下一個標記,則生成器會終結。

離題了,迴歸正題。咱們如何實現無限回溯呢?

回溯要求你能記住源碼中的位置,而且可以從該處從新解析。標記器的 API 不容許咱們重置它的輸入指針,但相對容易的是,將標記流裝入一個數組中,並在那裏作指針重置,因此咱們就這樣作。(你一樣可使用 itertools.tee() 來作,可是根據文檔中的警告,在咱們這種狀況下,效率可能較低。)

我猜你可能會先將整個輸入內容標記到一個 Python 列表裏,將其做爲解析器的輸入,但這意味着若是在文件末尾處存在着無效的標記(例如一個字符串缺乏結束的引號),而在文件前面還有語法錯誤,那你首先會收到的是關於標記錯誤的信息。

我以爲這是種糟糕的用戶體驗,由於這個語法錯誤有多是致使字符串殘缺的根本緣由。

因此個人設計是按需標記,所用的列表是惰性列表。

基礎 API 很是簡單。Tokenizer 對象封裝了一個數組,存放標記及其位置信息。

它有三個基本方法:

  • get_token() 返回下一個標記,並推動數組的索引(若是到了數組末尾,則從源碼中讀取另外一個標記)
  • mark() 返回數組的當前索引
  • reset(pos) 設置數組的索引(參數必須從 mark() 方法中獲得)

咱們再補充一個便利方法 peek_token() ,它返回下一個標記且不推動索引。

而後,這就成了 Tokenizer 類的核心代碼:

class Tokenizer:
    def __init__(self, tokengen):
        """Call with tokenize.generate_tokens(...)."""
        self.tokengen = tokengen
        self.tokens = []
        self.pos = 0
    def mark(self):
        return self.pos
    def reset(self, pos):
        self.pos = pos
    def get_token(self):
        token = self.peek_token()
        self.pos += 1
        return token
    def peek_token(self):
        if self.pos == len(self.tokens):
            self.tokens.append(next(self.tokengen))
        return self.tokens[self.pos]

如今,仍然缺失着不少東西(並且方法和實例變量的名稱應該如下劃線開頭),但這做爲 Tokenizer API 的初稿已經夠了。

解析器也須要變成一個類,以即可以擁有 statement()、expr() 和其它方法。

標記器則變成一個實例變量,不過咱們不但願解析方法(parsing methods)直接調用 get_token()——相反,咱們給 Parser 類一個 expect() 方法,它能夠像解析類方法同樣,表示執行成功或失敗。

expect() 的參數是一個預期的標記——一個字符串(像「+」)或者一個標記類型(像NAME)。

討論完了解析器的輸出,我繼續講返回類型(return type)。

在我初稿的解析器中,解析函數只返回 True 或 False。那對於理論計算機科學來講是好的(解析器要解答的那類問題是「語言中的這個是不是有效的字符串?」),可是對於構建解析器卻不是——相反,咱們但願用解析器來建立一個 AST。

因此咱們就這麼辦,即讓每一個解析方法在成功時返回 Node 對象,在失敗時返回 None

Node 類能夠超級簡單:

class Node:
    def __init__(self, type, children):
        self.type = type
        self.children = children

在這裏,type 表示了該 AST 節點是什麼類型(例如是個「add」節點或者「if」節點),children 表示了一些節點和標記(TokenInfo 類的實例)。

儘管未來我可能會改變表示 AST 的方式,但這足以讓編譯器生成代碼或對其做分析了,例如 linting (譯註:不懂)或者是靜態類型檢查。

爲了適應這個方案,expect() 方法在成功時會返回一個 TokenInfo 對象,在失敗時返回 None。爲了支持回溯,我還封裝了標記器的 mark() 和 reset() 方法(不改變 API)。

這是 Parser 類的基礎結構:

class Parser:
    def __init__(self, tokenizer):
        self.tokenizer = tokenizer
    def mark(self):
        return self.tokenizer.mark()
    def reset(self, pos):
        self.tokenizer.reset(pos)
    def expect(self, arg):
        token = self.tokenizer.peek_token()
        if token.type == arg or token.string == arg:
            return self.tokenizer.get_token()
        return None

一樣地,我放棄了某些細節,但它能夠工做。

在這裏,我有必要介紹解析方法的一個重要的需求:一個解析方法要麼返回一個 Node,並將標記器定位到它能識別的語法規則的最後一個標記以後;要麼返回 None,而後保持標記器的位置不變。

若是解析方法在讀取了多個標記以後失敗了,則它必須重置標記器的位置。這就是 mark() 與 reset() 的用途。請注意,expect() 也遵循此規則。

因此解析器的實際草稿以下。請注意,我使用了 Python 3.8 的海象運算符(:=):

class ToyParser(Parser):
    def statement(self):
        if a := self.assignment():
            return a
        if e := self.expr():
            return e
        if i := self.if_statement():
            return i
        return None
    def expr(self):
        if t := self.term():
            pos = self.mark()
            if op := self.expect("+"):
                if e := self.expr():
                    return Node("add", [t, e])
            self.reset(pos)
            if op := self.expect("-"):
                if e := self.expr():
                    return Node("sub", [t, e])
            self.reset(pos)
            return t
        return None
    def term(self):
        # Very similar...
    def atom(self):
        if token := self.expect(NAME):
            return token
        if token := self.expect(NUMBER):
            return token
        pos = self.mark()
        if self.expect("("):
            if e := self.expr():
                if self.expect(")"):
                    return e
        self.reset(pos)
        return None

我給讀者們留了一些解析方法做爲練習(這實際上不只僅是爲了介紹解析器長什麼樣子),最終咱們將像這樣從語法中自動地生成代碼。

NAME 和 NUMBER 等常量可從標準庫的 token 庫中導入。(這能令咱們快速地進入 Python 的標記過程;但若是想要構建一個更加通用的 PEG 解析器,則應該探索一些其它方法。)

我還做了個小弊:expr 是左遞歸的,但個人解析器用了右遞歸,由於遞歸降低解析器不適用於左遞歸的語法規則。

有一個解決方案,但它還只是一些學術研究上的課題,我想之後單獨介紹它。大家只需知道,修復的版本與這個玩具語法並不是 100% 相符。

**我但願大家獲得的關鍵信息是: **

  • 語法規則至關於解析器方法,當一條語法規則引用另外一條語法規則時,它的解析方法會調用另外一條規則的解析方法
  • 當多個條目構成備選項時,解析方法會一個接一個地調用相應的方法
  • 當一條語法規則引用一個標記時,其解析方法會調用 expect()
  • 當一個解析方法在給定的輸入位置成功地識別了它的語法規則時,它返回相應的 AST 節點;當識別失敗時,它返回 None
  • 一個解析方法在消費(consum)一個或多個標記(直接或間接地,經過調用另外一個成功的解析方法)後放棄解析時,必須顯式地重置標記器的位置。這適用於放棄一個備選項而嘗試下一個,也適用於徹底地放棄解析

若是全部的解析方法都遵照這些規則,則沒必要在單個解析方法中使用 mark() 和 reset()。你能夠用概括法證實這一點。

順便提醒,雖然使用上下文管理器和 with 語句來替代顯式地調用 mark() 與 reset() 頗有誘惑力,但這無論用:在成功時不該調用 reset()!

爲了修復它,你能夠在控制流中使用異常,這樣上下文管理器就知道是否該重置標記器(我認爲 TatSu 作了相似的東西)。

舉例,你能夠這樣作:

def statement(self):
        with self.alt():
            return self.assignment()
        with self.alt():
            return self.expr()
        with self.alt():
            return self.if_statement()
        raise ParsingFailure

特別地,atom() 中用來識別帶括號的表達式的 if-語句,能夠變成:

with self.alt():
            self.expect("(")
            e = self.expr()
            self.expect(")")
            return e

但我發現這太「神奇」了——在閱讀這些代碼時,你必須清醒地意識到每一個解析方法(以及 expect())均可能會引起異常,而這個異常會被 with 語句的上下文管理器捕獲並忽略掉。

這至關不尋常,儘管確定會支持(經過從 __exit__ 返回 true)。

還有,個人最終目標是生成 C,不是 Python,而在 C 裏,沒有 with 語句來改變控制流。

無論怎樣,下面是將來的一些主題:

  • 根據語法生成解析代碼
  • packrat 解析(記憶法)
  • EBNF 的特性,如(x | y)、[x y ...]、x* 、x+
  • tracing (用於調試解析器或語法)
  • PEG 特性,如前瞻和「切割」
  • 如何處理左遞歸規則
  • 生成 C 代碼

相關連接:

一、PEG解析器(考慮替換現有解析器)

二、pgen解析器(現有解析器的由來)

公衆號【Python貓】, 本號連載優質的系列文章,有喵星哲學貓系列、Python進階系列、好書推薦系列、技術寫做、優質英文推薦與翻譯等等,歡迎關注哦。

相關文章
相關標籤/搜索