hive.ddl.output.format:hive的ddl語句的輸出格式,默認是text,純文本,還有json格式,這個是0.90之後纔出的新配置;java
hive.exec.script.wrapper:hive調用腳本時的包裝器,默認是null,若是設置爲python的話,那麼在作腳本調用操做時語句會變爲python <script command>,null的話就是直接執行<script command>;node
hive.exec.plan:hive執行計劃的文件路徑,默認是null,會在運行時自動設置,形如hdfs://xxxx/xxx/xx;python
hive.exec.scratchdir:hive用來存儲不一樣階段的map/reduce的執行計劃的目錄,同時也存儲中間輸出結果,默認是/tmp/<user.name>/hive,咱們實際通常會按組區分,而後組內自建一個tmp目錄存儲;web
hive.exec.submitviachild:在非local模式下,決定hive是否要在獨立的jvm中執行map/reduce;默認是false,也就是說默認map/reduce的做業是在hive的jvm上去提交的;數據庫
hive.exec.script.maxerrsize:當用戶調用transform或者map或者reduce執行腳本時,最大的序列化錯誤數,默認100000,通常也不用修改;apache
hive.exec.compress.output:一個查詢的最後一個map/reduce任務輸出是否被壓縮的標誌,默認爲false,可是通常會開啓爲true,好處的話,節省空間不說,在不考慮cpu壓力的時候會提升io;json
hive.exec.compress.intermediate:相似上個,在一個查詢的中間的map/reduce任務輸出是否要被壓縮,默認false,緩存
hive.jar.path:當使用獨立的jvm提交做業時,hive_cli.jar所在的位置,無默認值;安全
hive.aux.jars.path:當用戶自定義了UDF或者SerDe,這些插件的jar都要放到這個目錄下,無默認值;服務器
hive.partition.pruning:在編譯器發現一個query語句中使用分區表然而未提供任何分區謂詞作查詢時,拋出一個錯誤從而保護分區表,默認是nonstrict;(待讀源碼後細化,網上資料極少)
hive.map.aggr:map端聚合是否開啓,默認開啓;
hive.join.emit.interval:在發出join結果以前對join最右操做緩存多少行的設定,默認1000;hive jira裏有個對該值設置過小的bugfix;
hive.map.aggr.hash.percentmemory:map端聚合時hash表所佔用的內存比例,默認0.5,這個在map端聚合開啓後使用,
hive.default.fileformat:CREATE TABLE語句的默認文件格式,默認TextFile,其餘可選的有SequenceFile、RCFile還有Orc;
hive.merge.mapfiles:在只有map的做業結束時合併小文件,默認開啓true;
hive.merge.mapredfiles:在一個map/reduce做業結束後合併小文件,默認不開啓false;
hive.merge.size.per.task:做業結束時合併文件的大小,默認256MB;
hive.merge.smallfiles.avgsize:在做業輸出文件小於該值時,起一個額外的map/reduce做業將小文件合併爲大文件,小文件的基本閾值,設置大點能夠減小小文件個數,須要mapfiles和mapredfiles爲true,默認值是16MB;
mapred.reduce.tasks:每一個做業的reduce任務數,默認是hadoop client的配置1個;
hive.exec.reducers.bytes.per.reducer:每一個reducer的大小,默認是1G,輸入文件若是是10G,那麼就會起10個reducer;
hive.exec.reducers.max:reducer的最大個數,若是在mapred.reduce.tasks設置爲負值,那麼hive將取該值做爲reducers的最大可能值。固然還要依賴(輸入文件大小/hive.exec.reducers.bytes.per.reducer)所得出的大小,取其小值做爲reducer的個數,hive默認是999;
hive.fileformat.check:加載數據文件時是否校驗文件格式,默認是true;
hive.groupby.skewindata:group by操做是否容許數據傾斜,默認是false,當設置爲true時,執行計劃會生成兩個map/reduce做業,第一個MR中會將map的結果隨機分佈到reduce中,達到負載均衡的目的來解決數據傾斜,
hive.groupby.mapaggr.checkinterval:map端作聚合時,group by 的key所容許的數據行數,超過該值則進行分拆,默認是100000;
hive.mapred.local.mem:本地模式時,map/reduce的內存使用量,默認是0,就是無限制;
hive.mapjoin.followby.map.aggr.hash.percentmemory:map端聚合時hash表的內存佔比,該設置約束group by在map join後進行,不然使用hive.map.aggr.hash.percentmemory來確認內存佔比,默認值0.3;
hive.map.aggr.hash.force.flush.memeory.threshold:map端聚合時hash表的最大可用內存,若是超過該值則進行flush數據,默認是0.9;
hive.map.aggr.hash.min.reduction:若是hash表的容量與輸入行數之比超過這個數,那麼map端的hash聚合將被關閉,默認是0.5,設置爲1能夠保證hash聚合永不被關閉;
hive.optimize.groupby:在作分區和表查詢時是否作分桶group by,默認開啓true;
hive.multigroupby.singlemr:將多個group by產出爲一個單一map/reduce任務計劃,固然約束前提是group by有相同的key,默認是false;
hive.optimize.cp:列裁剪,默認開啓true,在作查詢時只讀取用到的列,這個是個有用的優化;
hive.optimize.index.filter:自動使用索引,默認不開啓false;
hive.optimize.index.groupby:是否使用匯集索引優化group-by查詢,默認關閉false;
hive.optimize.ppd:是否支持謂詞下推,默認開啓;所謂謂詞下推,將外層查詢塊的 WHERE 子句中的謂詞移入所包含的較低層查詢塊(例如視圖),從而可以提前進行數據過濾以及有可能更好地利用索引。
hive.optimize.ppd.storage:謂詞下推開啓時,謂詞是否下推到存儲handler,默認開啓,在謂詞下推關閉時不起做用;
hive.ppd.recognizetransivity:在等值join條件下是否產地重複的謂詞過濾器,默認開啓;
hive.join.cache.size:在作表join時緩存在內存中的行數,默認25000;
hive.mapjoin.bucket.cache.size:mapjoin時內存cache的每一個key要存儲多少個value,默認100;
hive.optimize.skewjoin:是否開啓數據傾斜的join優化,默認不開啓false;
hive.skewjoin.key:判斷數據傾斜的閾值,若是在join中發現一樣的key超過該值則認爲是該key是傾斜的join key,默認是100000;
hive.skewjoin.mapjoin.map.tasks:在數據傾斜join時map join的map數控制,默認是10000;
hive.skewjoin.mapjoin.min.split:數據傾斜join時map join的map任務的最小split大小,默認是33554432,該參數要結合上面的參數共同使用來進行細粒度的控制;
hive.mapred.mode:hive操做執行時的模式,默認是nonstrict非嚴格模式,若是是strict模式,不少有風險的查詢會被禁止運行,好比笛卡爾積的join和動態分區;
hive.exec.script.maxerrsize:一個map/reduce任務容許打印到標準錯誤裏的最大字節數,爲了防止腳本把分區日誌填滿,默認是100000;
hive.exec.script.allow.partial.consumption:hive是否容許腳本不從標準輸入中讀取任何內容就成功退出,默認關閉false;
hive.script.operator.id.env.var:在用戶使用transform函數作自定義map/reduce時,存儲惟一的腳本標識的環境變量的名字,默認HIVE_SCRIPT_OPERATOR_ID;
hive.exec.compress.output:控制hive的查詢結果輸出是否進行壓縮,壓縮方式在hadoop的mapred.output.compress中配置,默認不壓縮false;
hive.exec.compress.intermediate:控制hive的查詢中間結果是否進行壓縮,同上條配置,默認不壓縮false;
hive.exec.parallel:hive的執行job是否並行執行,默認不開啓false,在不少操做如join時,子查詢之間並沒有關聯可獨立運行,這種狀況下開啓並行運算能夠大大加速;
hvie.exec.parallel.thread.number:並行運算開啓時,容許多少做業同時計算,默認是8;
hive.exec.rowoffset:是否提供行偏移量的虛擬列,默認是false不提供,Hive有兩個虛擬列:一個是INPUT__FILE__NAME,表示輸入文件的路徑,另一個是BLOCK__OFFSET__INSIDE__FILE,表示記錄在文件中的塊偏移量,這對排查出現不符合預期或者null結果的查詢是頗有幫助的;
hive.task.progress:控制hive是否在執行過程當中週期性的更新任務進度計數器,開啓這個配置能夠幫助job tracker更好的監控任務的執行狀況,可是會帶來必定的性能損耗,當動態分區標誌hive.exec.dynamic.partition開啓時,本配置自動開啓;
hive.exec.pre.hooks:執行前置條件,一個用逗號分隔開的實現了org.apache.hadoop.hive.ql.hooks.ExecuteWithHookContext接口的java class列表,配置了該配置後,每一個hive任務執行前都要執行這個執行前鉤子,默認是空;
hive.exec.post.hooks:同上,執行後鉤子,默認是空;
hive.exec.failure.hooks:同上,異常時鉤子,在程序發生異常時執行,默認是空;
hive.mergejob.maponly:試圖生成一個只有map的任務去作merge,前提是支持CombineHiveInputFormat,默認開啓true;
hive.mapjoin.smalltable.filesize:輸入表文件的mapjoin閾值,若是輸入文件的大小小於該值,則試圖將普通join轉化爲mapjoin,默認25MB;
hive.mapjoin.localtask.max.memory.usage:mapjoin本地任務執行時hash表容納key/value的最大量,超過這個值的話本地任務會自動退出,默認是0.9;
hive.mapjoin.followby.gby.localtask.max.memory.usage:相似上面,只不過是若是mapjoin後有一個group by的話,該配置控制相似這樣的query的本地內存容量上限,默認是0.55;
hive.mapjoin.check.memory.rows:在運算了多少行後執行內存使用量檢查,默認100000;
hive.heartbeat.interval:發送心跳的時間間隔,在mapjoin和filter操做中使用,默認1000;
hive.auto.convert.join:根據輸入文件的大小決定是否將普通join轉換爲mapjoin的一種優化,默認不開啓false;
hive.script.auto.progress:hive的transform/map/reduce腳本執行時是否自動的將進度信息發送給TaskTracker來避免任務沒有響應被誤殺,原本是當腳本輸出到標準錯誤時,發送進度信息,可是開啓該項後,輸出到標準錯誤也不會致使信息發送,所以有可能會形成腳本有死循環產生,可是TaskTracker卻沒有檢查到從而一直循環下去;
hive.script.serde:用戶腳本轉換輸入到輸出時的SerDe約束,默認是org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe;
hive.script.recordreader:從腳本讀數據的時候的默認reader,默認是org.apache.hadoop.hive.ql.exec.TextRecordReader;
hive.script.recordwriter:寫數據到腳本時的默認writer,默認org.apache.hadoop.hive.ql.exec.TextRecordWriter;
hive.input.format:輸入格式,默認是org.apache.hadoop.hive.ql.io.CombineHiveInputFormat,若是出現問題,能夠改用org.apache.hadoop.hive.ql.io.HiveInputFormat;
hive.udtf.auto.progress:UDTF執行時hive是否發送進度信息到TaskTracker,默認是false;
hive.mapred.reduce.tasks.speculative.execution:reduce任務推測執行是否開啓,默認是true;
hive.exec.counters.pull.interval:運行中job輪詢JobTracker的時間間隔,設置小會影響JobTracker的load,設置大可能看不出運行任務的信息,要去平衡,默認是1000;
hive.enforce.bucketing:數據分桶是否被強制執行,默認false,若是開啓,則寫入table數據時會啓動分桶,
hive.enforce.sorting:開啓強制排序時,插數據到表中會進行強制排序,默認false;
hive.optimize.reducededuplication:若是數據已經根據相同的key作好聚合,那麼去除掉多餘的map/reduce做業,此配置是文檔的推薦配置,建議打開,默認是true;
hive.exec.dynamic.partition:在DML/DDL中是否支持動態分區,默認false;
hive.exec.dynamic.partition.mode:默認strict,在strict模式下,動態分區的使用必須在一個靜態分區確認的狀況下,其餘分區能夠是動態;
hive.exec.max.dynamic.partitions:動態分區的上限,默認1000;
hive.exec.max.dynamic.partitions.pernode:每一個mapper/reducer節點能夠建立的最大動態分區數,默認100;
hive.exec.max.created.files:一個mapreduce做業能建立的HDFS文件最大數,默認是100000;
hive.exec.default.partition.name:當動態分區啓用時,若是數據列裏包含null或者空字符串的話,數據會被插入到這個分區,默認名字是__HIVE_DEFAULT_PARTITION__;
hive.fetch.output.serde:FetchTask序列化fetch輸出時須要的SerDe,默認是org.apache.hadoop.hive.serde2.DelimitedJSONSerDe;
hive.exec.mode.local.auto:是否由hive決定自動在local模式下運行,默認是false,
hive.exec.drop.ignorenoneexistent:在drop表或者視圖時若是發現表或視圖不存在,是否報錯,默認是true;
hive.exec.show.job.failure.debug.info:在做業失敗時是否提供一個任務debug信息,默認true;
hive.auto.progress.timeout:運行自動progressor的時間間隔,默認是0等價於forever;
hive.table.parameters.default:新建表的屬性字段默認值,默認是empty空;
hive.variable.substitute:是否支持變量替換,若是開啓的話,支持語法如${var} ${system:var}和${env.var},默認是true;
hive.error.on.empty.partition:在遇到結果爲空的動態分區時是否報錯,默認是false;
hive.exim.uri.scheme.whitelist:在導入導出數據時提供的一個白名單列表,列表項之間由逗號分隔,默認hdfs,pfile;
hive.limit.row.max.size:字面意思理解就是在使用limit作數據的子集查詢時保證的最小行數據量,默認是100000;
hive.limit.optimize.limit.file:使用簡單limit查詢數據子集時,可抽樣的最大文件數,默認是10;
hive.limit.optimize.enable:使用簡單limit抽樣數據時是否開啓優化選項,默認是false,關於limit的優化問題,在hive programming書中解釋的是這個feature有drawback,對於抽樣的不肯定性給出了風險提示;
hive.limit.optimize.fetch.max:使用簡單limit抽樣數據容許的最大行數,默認50000,查詢query受限,insert不受影響;
hive.rework.mapredwork:是否重作mapreduce,默認是false;
hive.sample.seednumber:用來區分抽樣的數字,默認是0;
hive.io.exception.handlers:io異常處理handler類列表,默認是空,當record reader發生io異常時,由這些handler來處理異常;
hive.autogen.columnalias.prefix.label:當在執行中自動產生列別名的前綴,當相似count這樣的聚合函數起做用時,若是不明確指出count(a) as xxx的話,那麼默認會從列的位置的數字開始算起添加,好比第一個count的結果會冠以列名_c0,接下來依次類推,默認值是_c,數據開發過程當中應該不少人都看到過這個別名;
hive.autogen.columnalias.prefix.includefuncname:在自動生成列別名時是否帶函數的名字,默認是false;
hive.exec.perf.logger:負責記錄客戶端性能指標的日誌類名,必須是org.apache.hadoop.hive.ql.log.PerfLogger的子類,默認是org.apache.hadoop.hive.ql.log.PerfLogger;
hive.start.cleanup.scratchdir:當啓動hive服務時是否清空hive的scratch目錄,默認是false;
hive.output.file.extension:輸出文件擴展名,默認是空;
hive.insert.into.multilevel.dirs:是否插入到多級目錄,默認是false;
hive.files.umask.value:hive建立文件夾時的dfs.umask值,默認是0002;
hive.metastore.local:控制hive是否鏈接一個遠程metastore服務器仍是開啓一個本地客戶端jvm,默認是true,Hive0.10已經取消了該配置項;
javax.jdo.option.ConnectionURL:JDBC鏈接字符串,默認jdbc:derby:;databaseName=metastore_db;create=true;
javax.jdo.option.ConnectionDriverName:JDBC的driver,默認org.apache.derby.jdbc.EmbeddedDriver;
javax.jdo.PersisteneManagerFactoryClass:實現JDO PersistenceManagerFactory的類名,默認org.datanucleus.jdo.JDOPersistenceManagerFactory;
javax.jdo.option.DetachAllOnCommit:事務提交後detach全部提交的對象,默認是true;
javax.jdo.option.NonTransactionalRead:是否容許非事務的讀,默認是true;
javax.jdo.option.ConnectionUserName:username,默認APP;
javax.jdo.option.ConnectionPassword:password,默認mine;
javax.jdo.option.Multithreaded:是否支持併發訪問metastore,默認是true;
datanucleus.connectionPoolingType:使用鏈接池來訪問JDBC metastore,默認是DBCP;
datanucleus.validateTables:檢查是否存在表的schema,默認是false;
datanucleus.validateColumns:檢查是否存在列的schema,默認false;
datanucleus.validateConstraints:檢查是否存在constraint的schema,默認false;
datanucleus.stroeManagerType:元數據存儲類型,默認rdbms;
datanucleus.autoCreateSchema:在不存在時是否自動建立必要的schema,默認是true;
datanucleus.aotuStartMechanismMode:若是元數據表不正確,拋出異常,默認是checked;
datanucleus.transactionIsolation:默認的事務隔離級別,默認是read-committed;
datanucleus.cache.level2:使用二級緩存,默認是false;
datanucleus.cache.level2.type:二級緩存的類型,有兩種,SOFT:軟引用,WEAK:弱引用,默認是SOFT;
datanucleus.identifierFactory:id工廠生產表和列名的名字,默認是datanucleus;
datanucleus.plugin.pluginRegistryBundleCheck:當plugin被發現而且重複時的行爲,默認是LOG;
hive.metastroe.warehouse.dir:數據倉庫的位置,默認是/user/hive/warehouse;
hive.metastore.execute.setugi:非安全模式,設置爲true會令metastore以客戶端的用戶和組權限執行DFS操做,默認是false,這個屬性須要服務端和客戶端同時設置;
hive.metastore.event.listeners:metastore的事件監聽器列表,逗號隔開,默認是空;
hive.metastore.partition.inherit.table.properties:當新建分區時自動繼承的key列表,默認是空;
hive.metastore.end.function.listeners:metastore函數執行結束時的監聽器列表,默認是空;
hive.metastore.event.expiry.duration:事件表中事件的過時時間,默認是0;
hive.metastore.event.clean.freq:metastore中清理過時事件的定時器的運行週期,默認是0;
hive.metastore.connect.retries:建立metastore鏈接時的重試次數,默認是5;
hive.metastore.client.connect.retry.delay:客戶端在連續的重試鏈接等待的時間,默認1;
hive.metastore.client.socket.timeout:客戶端socket超時時間,默認20秒;
hive.metastore.rawstore.impl:原始metastore的存儲實現類,默認是org.apache.hadoop.hive.metastore.ObjectStore;
hive.metastore.batch.retrieve.max:在一個batch獲取中,能從metastore裏取出的最大記錄數,默認是300;
hive.metastore.ds.connection.url.hook:查找JDO鏈接url時hook的名字,默認是javax.jdo.option.ConnectionURL;
hive.metastore.ds.retry.attempts:當出現鏈接錯誤時重試鏈接的次數,默認是1次;
hive.metastore.ds.retry.interval:metastore重試鏈接的間隔時間,默認1000毫秒;
hive.metastore.server.min.threads:在thrift服務池中最小的工做線程數,默認是200;
hive.metastore.server.max.threads:最大線程數,默認是100000;
hive.metastore.server.tcp.keepalive:metastore的server是否開啓長鏈接,長連能夠預防半鏈接的積累,默認是true;
hive.metastore.sasl.enabled:metastore thrift接口的安全策略,開啓則用SASL加密接口,客戶端必需要用Kerberos機制鑑權,默認是不開啓false;
hive.metastore.kerberos.keytab.file:在開啓sasl後kerberos的keytab文件存放路徑,默認是空;
hive.metastore.kerberos.principal:kerberos的principal,_HOST部分會動態替換,默認是hive-metastore/_HOST@EXAMPLE.COM;
hive.metastore.cache.pinobjtypes:在cache中支持的metastore的對象類型,由逗號分隔,默認是Table,StorageDescriptor,SerDeInfo,Partition,Database,Type,FieldSchema,Order;
hive.metastore.authorization.storage.checks:在作相似drop partition操做時,metastore是否要認證權限,默認是false;
hive.metastore.schema.verification:強制metastore的schema一致性,開啓的話會校驗在metastore中存儲的信息的版本和hive的jar包中的版本一致性,而且關閉自動schema遷移,用戶必須手動的升級hive而且遷移schema,關閉的話只會在版本不一致時給出警告,默認是false不開啓;
hive.index.compact.file.ignore.hdfs:在索引文件中存儲的hdfs地址將在運行時被忽略,若是開啓的話;若是數據被遷移,那麼索引文件依然可用,默認是false;
hive.optimize.index.filter.compact.minsize:壓縮索引自動應用的最小輸入大小,默認是5368709120;
hive.optimize.index.filter.compact.maxsize:同上,相反含義,若是是負值表明正無窮,默認是-1;
hive.index.compact.query.max.size:一個使用壓縮索引作的查詢能取到的最大數據量,默認是10737418240 個byte;負值表明無窮大;
hive.index.compact.query.max.entries:使用壓縮索引查詢時能讀到的最大索引項數,默認是10000000;負值表明無窮大;
hive.index.compact.binary.search:在索引表中是否開啓二分搜索進行索引項查詢,默認是true;
hive.exec.concatenate.check.index:若是設置爲true,那麼在作ALTER TABLE tbl_name CONCATENATE on a table/partition(有索引) 操做時,拋出錯誤;能夠幫助用戶避免index的刪除和重建;
hive.stats.dbclass:存儲hive臨時統計信息的數據庫,默認是jdbc:derby;
hive.stats.autogather:在insert overwrite命令時自動收集統計信息,默認開啓true;
hive.stats.jdbcdriver:數據庫臨時存儲hive統計信息的jdbc驅動;
hive.stats.dbconnectionstring:臨時統計信息數據庫鏈接串,默認jdbc:derby:databaseName=TempStatsStore;create=true;
hive.stats.defaults.publisher:若是dbclass不是jdbc或者hbase,那麼使用這個做爲默認發佈,必須實現StatsPublisher接口,默認是空;
hive.stats.defaults.aggregator:若是dbclass不是jdbc或者hbase,那麼使用該類作彙集,要求實現StatsAggregator接口,默認是空;
hive.stats.jdbc.timeout:jdbc鏈接超時配置,默認30秒;
hive.stats.retries.max:當統計發佈合彙集在更新數據庫時出現異常時最大的重試次數,默認是0,不重試;
hive.stats.retries.wait:重試次數之間的等待窗口,默認是3000毫秒;
hive.client.stats.publishers:作count的job的統計發佈類列表,由逗號隔開,默認是空;必須實現org.apache.hadoop.hive.ql.stats.ClientStatsPublisher接口;
hive.client.stats.counters:沒什麼用~~~
hive.security.authorization.enabled:hive客戶端是否定證,默認是false;
hive.security.authorization.manager:hive客戶端認證的管理類,默認是org.apache.hadoop.hive.ql.security.authorization.DefaultHiveAuthorizationProvider;用戶定義的要實現org.apache.hadoop.hive.ql.security.authorization.HiveAuthorizationProvider;
hive.security.authenticator.manager:hive客戶端受權的管理類,默認是org.apache.hadoop.hive.ql.security.HadoopDefaultAuthenticator;用戶定義的須要實現org.apache.hadoop.hive.ql.security.HiveAuthenticatorProvider;
hive.security.authorization.createtable.user.grants:當表建立時自動受權給用戶,默認是空;
hive.security.authorization.createtable.group.grants:同上,自動受權給組,默認是空;
hive.security.authorization.createtable.role.grants:同上,自動受權給角色,默認是空;
hive.security.authorization.createtable.owner.grants:同上,自動受權給owner,默認是空;
hive.security.metastore.authorization.manager:metastore的認證管理類,默認是org.apache.hadoop.hive.ql.security.authorization.DefaultHiveMetastoreAuthorizationProvider;用戶定義的必須實現org.apache.hadoop.hive.ql.security.authorization.HiveMetastoreAuthorizationProvider接口;接口參數要包含org.apache.hadoop.hive.ql.security.authorization.StorageBasedAuthorizationProvider接口;使用HDFS的權限控制認證而不是hive的基於grant的方式;
hive.security.metastore.authenticator.manager:metastore端的受權管理類,默認是org.apache.hadoop.hive.ql.security.HadoopDefaultMetastoreAuthenticator,自定義的必須實現org.apache.hadoop.hive.ql.security.HiveAuthenticatorProvider接口;
hive.metastore.pre.event.listeners:在metastore作數據庫任何操做前執行的事件監聽類列表;
fs.har.impl:訪問Hadoop Archives的實現類,低於hadoop 0.20版本的都不兼容,默認是org.apache.hadoop.hive.shims.HiveHarFileSystem;hive.archive.enabled:是否容許歸檔操做,默認是false;hive.archive.har.parentdir.settable:在建立HAR文件時必需要有父目錄,須要手動設置,在新的hadoop版本會支持,默認是false;hive.support.concurrency:hive是否支持併發,默認是false,支持讀寫鎖的話,必需要起zookeeper;hive.lock.mapred.only.operation:控制是否在查詢時加鎖,默認是false;hive.lock.numretries:獲取鎖時嘗試的重試次數,默認是100;hive.lock.sleep.between.retries:在重試間隔的睡眠時間,默認60秒;hive.zookeeper.quorum:zk地址列表,默認是空;hive.zookeeper.client.port:zk服務器的鏈接端口,默認是2181;hive.zookeeper.session.timeout:zk客戶端的session超時時間,默認是600000;hive.zookeeper.namespace:在全部zk節點建立後的父節點,默認是hive_zookeeper_namespace;hive.zookeeper.clean.extra.nodes:在session結束時清除全部額外node;hive.cluster.delegation.token.store.class:代理token的存儲實現類,默認是org.apache.hadoop.hive.thrift.MemoryTokenStore,能夠設置爲org.apache.hadoop.hive.thrift.ZooKeeperTokenStore來作負載均衡集羣;hive.cluster.delegation.token.store.zookeeper.connectString:zk的token存儲鏈接串,默認是localhost:2181;hive.cluster.delegation.token.store.zookeeper.znode:token存儲的節點跟路徑,默認是/hive/cluster/delegation;hive.cluster.delegation.token.store.zookeeper.acl:token存儲的ACL,默認是sasl:hive/host1@example.com:cdrwa,sasl:hive/host2@example.com:cdrwa;hive.use.input.primary.region:從一張input表建立表時,建立這個表到input表的主region,默認是true;hive.default.region.name:默認region的名字,默認是default;hive.region.properties:region的默認的文件系統和jobtracker,默認是空;hive.cli.print.header:查詢輸出時是否打印名字和列,默認是false;hive.cli.print.current.db:hive的提示裏是否包含當前的db,默認是false;hive.hbase.wal.enabled:寫入hbase時是否強制寫wal日誌,默認是true;hive.hwi.war.file:hive在web接口是的war文件的路徑,默認是lib/hive-hwi-xxxx(version).war;hive.hwi.listen.host:hwi監聽的host地址,默認是0.0.0.0;hive.hwi.listen.port:hwi監聽的端口,默認是9999;hive.test.mode:hive是否運行在測試模式,默認是false;hive.test.mode.prefix:在測試模式運行時,表的前綴字符串,默認是test_;hive.test.mode.samplefreq:若是hive在測試模式運行,而且表未分桶,抽樣頻率是多少,默認是32;hive.test.mode.nosamplelist:在測試模式運行時不進行抽樣的表列表,默認是空;