HDFS 中向 DataNode 寫入數據失敗了怎麼辦

上傳100M的文件,上傳到50M,突然斷了,HDFS會怎麼處理? 如果向DataNode寫入數據失敗了怎麼辦? 如果這種情況發生,那麼就會執行一些操作: ① Pipeline數據流管道會被關閉,ACK queue中的packets會被添加到data queue的前面以確保不會發生packets數據包的丟失 ② 在正常的DataNode節點上的以保存好的block的ID版本會升級——這樣發生故障的D
相關文章
相關標籤/搜索