網上有篇關於hive的partition的使用講解的比較好,轉載了:html
1、背景apache
一、在Hive Select查詢中通常會掃描整個表內容,會消耗不少時間作不必的工做。有時候只須要掃描表中關心的一部分數據,所以建表時引入了partition概念。oop
二、分區表指的是在建立表時指定的partition的分區空間。spa
三、若是須要建立有分區的表,須要在create表的時候調用可選參數partitioned by,詳見表建立的語法結構。.net
2、技術細節code
一、一個表能夠擁有一個或者多個分區,每一個分區以文件夾的形式單獨存在表文件夾的目錄下。orm
二、表和列名不區分大小寫。htm
三、分區是以字段的形式在表結構中存在,經過describe table命令能夠查看到字段存在,可是該字段不存放實際的數據內容,僅僅是分區的表示。blog
四、建表的語法(建分區可參見PARTITIONED BY參數):hadoop
CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED BY (col_name, col_name, ...) [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS] [ROW FORMAT row_format] [STORED AS file_format] [LOCATION hdfs_path]
五、分區建表分爲2種,一種是單分區,也就是說在表文件夾目錄下只有一級文件夾目錄。另一種是多分區,表文件夾下出現多文件夾嵌套模式。
a、單分區建表語句:create table day_table (id int, content string) partitioned by (dt string);單分區表,按天分區,在表結構中存在id,content,dt三列。
b、雙分區建表語句:create table day_hour_table (id int, content string) partitioned by (dt string, hour string);雙分區表,按天和小時分區,在表結構中新增長了dt和hour兩列。
表文件夾目錄示意圖(多分區表):
六、添加分區表語法(表已建立,在此基礎上添加分區):
ALTER TABLE table_name ADD partition_spec [ LOCATION 'location1' ] partition_spec [ LOCATION 'location2' ] ... partition_spec: : PARTITION (partition_col = partition_col_value, partition_col = partiton_col_value, ...)
用戶能夠用 ALTER TABLE ADD PARTITION 來向一個表中增長分區。當分區名是字符串時加引號。例:
ALTER TABLE day_table ADD PARTITION (dt='2008-08-08', hour='08') location '/path/pv1.txt' PARTITION (dt='2008-08-08', hour='09') location '/path/pv2.txt';
七、刪除分區語法:
ALTER TABLE table_name DROP partition_spec, partition_spec,...
用戶能夠用 ALTER TABLE DROP PARTITION 來刪除分區。分區的元數據和數據將被一併刪除。例:
ALTER TABLE day_hour_table DROP PARTITION (dt='2008-08-08', hour='09');
八、數據加載進分區表中語法:
LOAD DATA [LOCAL] INPATH 'filepath' [OVERWRITE] INTO TABLE tablename [PARTITION (partcol1=val1, partcol2=val2 ...)]
例:
LOAD DATA INPATH '/user/pv.txt' INTO TABLE day_hour_table PARTITION(dt='2008-08- 08', hour='08'); LOAD DATA local INPATH '/user/hua/*' INTO TABLE day_hour partition(dt='2010-07- 07');
當數據被加載至表中時,不會對數據進行任何轉換。Load操做只是將數據複製至Hive表對應的位置。數據加載時在表下自動建立一個目錄,文件存放在該分區下。
九、基於分區的查詢的語句:
SELECT day_table.* FROM day_table WHERE day_table.dt>= '2008-08-08';
十、查看分區語句:
hive> show partitions day_hour_table; OK dt=2008-08-08/hour=08 dt=2008-08-08/hour=09 dt=2008-08-09/hour=09
3、總結
一、在 Hive 中,表中的一個 Partition 對應於表下的一個目錄,全部的 Partition 的數據都存儲在最字集的目錄中。
二、總的說來partition就是輔助查詢,縮小查詢範圍,加快數據的檢索速度和對數據按照必定的規格和條件進行管理。
——————————————————————————————————————
hive> create table mp (a string) partitioned by (b string, c string); OK Time taken: 0.044 seconds hive> alter table mp add partition (b='1', c='1'); OK Time taken: 0.079 seconds hive> alter table mp add partition (b='1', c='2'); OK Time taken: 0.052 seconds hive> alter table mp add partition (b='2', c='2'); OK Time taken: 0.056 seconds hive> show partitions mp ; OK b=1/c=1 b=1/c=2 b=2/c=2 Time taken: 0.046 seconds hive> explain extended alter table mp drop partition (b='1'); OK ABSTRACT SYNTAX TREE: (TOK_ALTERTABLE_DROPPARTS mp (TOK_PARTSPEC (TOK_PARTVAL b '1'))) STAGE DEPENDENCIES: Stage-0 is a root stage STAGE PLANS: Stage: Stage-0 Drop Table Operator: Drop Table table: mp Time taken: 0.048 seconds hive> alter table mp drop partition (b='1'); FAILED: Error in metadata: table is partitioned but partition spec is not specified or tab: {b=1} FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask hive> show partitions mp ; OK b=1/c=1 b=1/c=2 b=2/c=2 Time taken: 0.044 seconds hive> alter table mp add partition ( b='1', c = '3') partition ( b='1' , c='4'); OK Time taken: 0.168 seconds hive> show partitions mp ; OK b=1/c=1 b=1/c=2 b=1/c=3 b=1/c=4 b=2/c=2 b=2/c=3 Time taken: 0.066 seconds hive>insert overwrite table mp partition (b='1', c='1') select cnt from tmp_et3 ; hive>alter table mp add columns (newcol string);
|
location指定目錄結構 hive> alter table alter2 add partition (insertdate='2008-01-01') location '2008/01/01'; hive> alter table alter2 add partition (insertdate='2008-01-02') location '2008/01/02'; ———————————————————————————————————————————— 附: hive中簡單介紹分區表(partition table),含動態分區(dynamic partition)與靜態分區(static partition)http://blog.sina.com.cn/s/blog_6ff05a2c0100tah0.html [一塊兒學Hive]之六-Hive的動態分區 |