Ethereum當前和Bitcoin同樣,採用基於工做量證實(Proof of Work,PoW)的共識算法來產生新的區塊。與Bitcoin不一樣的是,Ethereum採用的共識算法能夠抵禦ASIC礦機對挖礦工做的壟斷地位,這個算法叫作Ethash
。git
PoW的的核心是Hash運算,誰的Hash運算更快,誰就更有可能挖掘出新的區塊,得到更多的經濟利益。在Bitcoin的發展過程當中,挖礦設備經歷了(CPU=>GPU=>ASIC)的進化過程,其中的動機就是爲了更快地進行Hash運算。隨着礦機門檻地提升,參與者久愈來愈少,這與區塊鏈的去中心化構想背道而馳。
所以,在共識算法設計時,爲了減小ASIC礦機的優點(專用並行計算),Ethereum增長了對於內存的要求,即在進行挖礦的過程當中,須要佔用消耗大量的內存空間,而這是ASIC礦機不具有的(配置符合運算那能力的內存太貴了,即便配置,這也就等同於大量CPU了)。即將挖礦算法從CPU密集型(CPU bound)轉化爲IO密集型(I/O bound)github
Ethash
是從Dagger-Hashimoto
算法改動而來的,而Dagger-Hashimoto
的原型是Thaddeus Dryja提出的Hashimoto算法,它在傳統Bitcoin的工做量證實的基礎上增長了消耗內存的步驟。算法
傳統的PoW的本質是不斷嘗試不一樣的nonce
,計算HASH
$$hash\_output=HASH(prev\_hash,merkle_root,nonce)$$
若是計算結果知足$hash\_output<target$,則說明計算的nonce
是有效的segmentfault
而對於Hashimoto,HASH運算僅僅是第一步,其算法以下:數組
nonce: 64-bits.正在嘗試的nonce值 get_txid(T):歷史區塊上的交易T的hash total_transactions: 歷史上的全部交易的個數
hash_output_A = HASH(prev_hash,merkle_root,nonce) for i = 0 to 63 do shifted_A = hash_output_A >> i transaction = shifted_A mod total_transactions txid[i] = get_txit(transaction) << i end of txid_mix = txid[0]^txid[1]...txid[63] final_output = txid_mix ^ (nonce<<192)
能夠看出,在進行了HASH運算後,還須要進行64輪的混淆(mix)運算,而混淆的源數據是區塊鏈上的歷史交易,礦工節點在運行此算法時,須要訪問內存中的歷史交易信息(這是內存消耗的來源),最終只有當 $final\_output < target$ 時,纔算是找到了有效的nonce
app
Dagger-Hashimoto
相比於Hashimoto,不一樣點在於混淆運算的數據源不是區塊鏈上的歷史交易,而是以特定算法生成的約1GB大小的數據集合(dataset
),礦工節點在挖礦時,須要將這1GB數據所有載入內存。函數
nonce
填入區塊頭,還須要填入一項MixDigest
,這是在挖礦過程當中計算出來的,它能夠做爲礦工的確在進行消耗內存挖礦工做量的證實。驗證者在驗證區塊時也會用到這一項。cache
,約1GB的dataset
由這約16MB的cache
按特定算法生成,dataset中每一項數據都由cache
中的256項數據參與生成,cache
中的這256項數據能夠看作是dataset
中數據的parent
。只因此是約,是由於其真正的大小是比16MB和1GB稍微小一點(爲了好描述,如下將省略約)cache
和dataset
的內容並不是不變,它每隔一個epoch
(30000個區塊)就須要從新計算cache
和dataset
的大小並不是一成不變,16MB和1GB只是初始值,這個大小在每一年會增大73%,這是爲了抵消掉摩爾定律下硬件性能的提高,即便硬件性能提高了,那麼最終計算所表明的工做量不會變化不少。結合上一條,那麼其實每通過30000個區塊,cache
和dataset
就會增大一點,而且從新計算cache
和dataset
,而輕客戶端只須要存儲 cache
。挖礦(seal)時須要dataset
在內存中便於隨時存取,而驗證(verify)時,只須要有cache就行,須要的dataset
臨時計算就行。dataset
經過generate()
方法生成,首先是生成cache,再從cache生成datasetoop
在挖礦與共識中提到了,共識算法經過實現Engine.Seal
接口,來實現挖礦,Ethash算法也不例外。
其頂層流程以下:
性能
ethash.mine()
進行實際的挖礦,參數中的block是待挖掘的區塊(已經打包好了交易),而nonce
是一個隨機值,做爲挖礦過程嘗試nonce
的初始值。mine()
調用首先計算後續挖礦須要的一些變量。hash爲區塊頭中除了nonce
和mixdigest
的Hash值,dataset爲挖掘這個區塊時須要的混淆數據集合(佔用1GB內存),target是本區塊最終Hash須要達到的目標,它與區塊難度成反比nonce
進行hashmotoFull()
函數計算最終result
(最終Hash值)和digest
,若是知足target要求,則結束挖礦,不然增長nonce
,再調用hashmotoFull()
func hashimotoFull(dataset []uint32, hash []byte, nonce uint64) ([]byte, []byte) { lookup := func(index uint32) []uint32 { offset := index * hashWords return dataset[offset : offset+hashWords] } return hashimoto(hash, nonce, uint64(len(dataset))*4, lookup) }
hashmotoFull()
是運算的核心,內部調用hashmoto()
,第三個參數爲dataset
的大小(即1GB),第四個參數是一個lookup
函數,它接收index參數,返回dataset
中64字節的數據。區塊鏈
func hashimoto(hash []byte, nonce uint64, size uint64, lookup func(index uint32) []uint32) ([]byte, []byte) { // 將dataset劃分爲2維矩陣,每行mixBytes=128字節,共1073739904/128=8388593行 rows := uint32(size / mixBytes) // 將hash與待嘗試的nonce組合成64字節的seed seed := make([]byte, 40) copy(seed, hash) binary.LittleEndian.PutUint64(seed[32:], nonce) seed = crypto.Keccak512(seed) seedHead := binary.LittleEndian.Uint32(seed) // 將64字節的seed轉化爲32個uint32的mix數組(先後16個uint32內容相同) mix := make([]uint32, mixBytes/4) for i := 0; i < len(mix); i++ { mix[i] = binary.LittleEndian.Uint32(seed[i%16*4:]) } temp := make([]uint32, len(mix)) // 進行總共loopAccesses=64輪的混淆計算,每次計算會去dataset裏查詢數據 for i := 0; i < loopAccesses; i++ { parent := fnv(uint32(i)^seedHead, mix[i%len(mix)]) % rows for j := uint32(0); j < mixBytes/hashBytes; j++ { copy(temp[j*hashWords:], lookup(2*parent+j)) } fnvHash(mix, temp) } // 壓縮mix:將32個uint32的mix壓縮成8個uint32 for i := 0; i < len(mix); i += 4 { mix[i/4] = fnv(fnv(fnv(mix[i], mix[i+1]), mix[i+2]), mix[i+3]) } mix = mix[:len(mix)/4] // 用8個uint32的mix填充32字節的digest digest := make([]byte, common.HashLength) for i, val := range mix { binary.LittleEndian.PutUint32(digest[i*4:], val) } // 對seed+digest計算hash,獲得最終的hash值 return digest, crypto.Keccak256(append(seed, digest...)) }
驗證時VerifySeal()
調用hashimotoLight()
,Light代表驗證者不須要完整的dataset,它須要用到的dataset中的數據都是臨時從cache中計算。
func hashimotoLight(size uint64, cache []uint32, hash []byte, nonce uint64) ([]byte, []byte) { keccak512 := makeHasher(sha3.NewKeccak512()) //lookup函數和hashimotoFull中的不一樣,它調用generateDatasetItem從cache中臨時計算 lookup := func(index uint32) []uint32 { rawData := generateDatasetItem(cache, index, keccak512) // return 64 byte data := make([]uint32, len(rawData)/4) // 16 個 uint32 for i := 0; i < len(data); i++ { data[i] = binary.LittleEndian.Uint32(rawData[i*4:]) } return data } return hashimoto(hash, nonce, size, lookup) }
除了lookup
函數不一樣,其他部分hashimotoFull
徹底同樣
Ethash相比與Bitcoin的挖礦算法,增長了對內存使用的要求,要求礦工提供在挖礦過程當中使用了大量內存的工做量證實,最終達到抵抗ASIC礦機的目的。
1 Ethash-Design-Rationale
2 what-actually-is-a-dag
3 why-dagger-hashimoto-for-ethereum