Hive MapReduce異常Job initialization failed: java.io.IOException: Split metadata size exceeded

namenode: HDFS的文件元信息,包括位置、大小、分塊信息等,保存在NameNode的內存中的,每個對象大約佔用150個字節。 問題描述:hive計算時,數據輸入文件的索引總量超過集羣限制(10M),導致無法進行計算,job拋錯 源碼剖析:hive.index.compact.query.max.entries: 使用壓縮索引查詢時能讀到的最大索引項數, 默認是10000000;負值代表無
相關文章
相關標籤/搜索