💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
[TOC] # 分桶表数据存储 分区针对的是数据的存储路径,分桶针对的是数据文件 分区提供一个隔离数据和优化查询的便利方式.不过,并非所有的数据集都可以形成合理的分区,特别是之前提到过的要确定合适划分大小这个疑虑 分桶是将数据集分解成更容易管理的若干部分的另一个技术 # 数据准备 student.txt ~~~ 1001 ss1 1002 ss2 1003 ss3 1004 ss4 1005 ss5 1006 ss6 1007 ss7 1008 ss8 1009 ss9 1010 ss10 1011 ss11 1012 ss12 1013 ss13 1014 ss14 1015 ss15 1016 ss16 ~~~ # 创建分桶表 ~~~ hive (db1)> create table stu_buck(id int, name string) > clustered by(id) > into 4 buckets > row format delimited fields terminated by ' '; ~~~ 这边表示按id字段分桶 # 导入数据 ~~~ load data local inpath '/root/study/student.txt' into table stu_buck; ~~~ 数据在hdfs上没有分成4个文件,还是一个文件没有分桶 **解决** **通过子查询的方式导入** 1. 先建个普通的stu表 ~~~ create table stu(id int, name string)row format delimited fields terminated by ' '; ~~~ 2. 向普通的stu表中导入数据 ~~~ load data local inpath '/root/study/student.txt' into table stu; ~~~ 3. 清空stu_buck表中的数据 ~~~ truncate table stu_buck; ~~~ 4. 导入数据到分桶表,通过子查询方式 ~~~ insert into table stu_buck select id, name from stu; ~~~ 5. 发现还是只有一个分桶 hdfs上看只有一个文件 6. 需要设置一个属性 ~~~ //设置开启分桶 set hive.enforce.bucketing=true; //把reduce设置为-1 set mapreduce.job.reduces=-1; //情况下表的数据 truncate table stu_buck; //插入数据 insert into table stu_buck select id, name from stu; ~~~ 7. 查询分桶的数据 在hdfs上查看对应表的文件,分成了几部分 # 分桶抽样查询 对于非常大的数据集,有时用户需要使用的是一个具有代表性的查询结果而不是全部结果.hive可以通过对表进行抽样来满足这个需求 ~~~ select * from stu_buck tablesample(bucket 1 out of 4 on id); ~~~ 注: tablesample是抽样语句,语法:tablesample(bucket x out of y) y必须是table总bucket数的倍数或者因子. hive根据大小,决定抽样的比例. 例如,table总共分了4份,当y等于2,抽取(4/2)2个bucket的数据 当y=8时,抽取(4/8=)1/2个bucket的数据 x表示从哪个bucket开始抽取. 例如,table总bucket数为4,tablesample(bucket 4 out of 4),表示总共抽取(4/4=)1个bucket的数据,抽取第4个bucket的数据 注意: x的值必须小于等于y的值,否则 ~~~ FAILED:SemanticException [Error 10061]: Numerator should not be bigger than denominator in sample clause for table stu_buck ~~~ # 数据块抽样 hive提供了另外一种按照百分比进行抽样的方式,这种是基于行数的,按照输入路径下的数据块百分比进行的抽样 ~~~ select * from stu tablesample(0.1 percent); ~~~ 提示: 这种抽样方式不一定适用于所有的文件格式.另外,这种抽样的最小抽样单元是一个HDFS数据块.因此,如果表的数据大小小于普通的块大小128M的话,那么将会返回所有行