【004hive基础】hive的文件存储格式与压缩

news/2024/12/3 7:43:20/

文章目录

  • 一.hive的行式存储与列式存储
  • 二. 存储格式
    • 1. TEXTFILE
    • 2. ORC格式
    • 3. PARQUET格式 ing
  • 三. Hive压缩格式
    • 1. mr支持的压缩格式:
    • 2. hive配置压缩的方式:
      • 2.1. 开启map端的压缩方式:
      • 2.2.开启reduce端的压缩方式:
  • 四. hive中存储格式和压缩相结合
  • 五. hive主流存储格式性能对比
    • 1. 压缩比比较
    • 2. 存储文件的查询效率测试

一.hive的行式存储与列式存储

HIve的文件存储格式常见的有四种:textfile 、sequencefile、orc、parquet ,前面两种是行式存储,后面两种是列式存储。

hive的存储格式指表的数据是如何在HDFS上组织排列的。

 
如下图,箭头的方向代表了数据是如何进行(写入)组织排列的。

在这里插入图片描述
 

我们讨论一下行、列存储在读写上的特点:

行存储在数据写入和修改上的优势
写入:

行存储的写入是一次完成的,如果这种写入建立在操作系统的文件系统上,可以保证写入过程的成功或者失败,可以保证数据的完整性。
 
列式存储写入需要把一行记录拆分成单列保存, 写入次数明显比行存储多(因为磁头调度次数多,而磁头调度是需要时间的,一般在 1ms~10ms),再加上磁头需要在盘片上移动和定位花费的时间,实际消耗更大。

修改:

数据修改实际上也是一次写入过程,不同的是,数据修改是对磁盘上的记录做删除标记。 行存储是在指定位置写入一次,列存储是将磁盘定位到多个列上分别写入,这个过程仍是行存储的列数倍。

因为行式存储写入和修改都是一次完成,相比列式存储需要将一行记录进行拆分,行式存储的优势还是比较明显的。
 
 
列式存储在数据读取和解析、分析数据上具有优势
数据读取方面:

  • 行存储通常将一行数据完全读出,如果只需要其中几列数据的情况,就会存在冗余列,出于缩短处理时间的考量,消除冗余列的过程通常是在内存中进行的。
  • 列存储 每次读取的数据是集合的一段或者全部,不存在冗余性问题。

数据解析方面:

  • 列式存储中的每一列数据类型是相同的,不存在二义性问题,例如,某列类型为整型 int,那么它的数据集合一定是整型数据,这种情况使数据解析变得十分容易。
  • 相比之下,行存储则要复杂得多,因为在一行记录中保存了多种类型的数据,数据解析需要在多种数据类型之间频繁转换,这个操作很消耗 CPU,增加了解析的时间。

 
所以列存储在写入效率、保证数据完整性上都不如行存储,它的优势是在读取过程,不会产生冗余数据,这对数据完整性要求不高的大数据处理领域比较重要。

一般来说,一个 OLAP 类型的查询可能需要访问几百万或者几十亿行的数据,但是OLAP 分析时只是获取少数的列,对于这种场景列式数据库只需要读取对应的列即可,因此这种场景更适合列式数据库,可以大大提高 OLAP 数据分析的效率。

 
 

二. 存储格式

1. TEXTFILE

hive默认存储格式,数据不做压缩,磁盘开销大,数据解析开销大。

虽然可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作

 

2. ORC格式

Orc (Optimized Row Columnar)是hive 0.11版里引入的新的存储格式。

可以看到每个Orc文件由1个或多个stripe组成,每个stripe250MB大小,这个Stripe实际相当于RowGroup概念,不过大小由4MB->250MB,这样能提升顺序读的吞吐率。

在这里插入图片描述
每个Stripe里有三部分组成,分别是Index Data,Row Data,Stripe Footer:

  • Index Data:默认每隔1W行做一个索引。这里的索引只是记录某行的各字段在Row Data中的offset。
  • Row Data:存储具体数据,先取部分行(1万行?),然后对这些行按列进行存储。每个列都进行了编码,分成多个Stream来存储。
  • Stripe Footer:存储stripe的元数据信息:
    • File Footer,存储Stripe的行数,每个Column的数据类型信息等;
    • PostScript,记录了Stripe的压缩类型以及FileFooter的长度信息等。

 
数据读取逻辑:

读取文件时,

  • 会先seek到文件尾部读PostScript,解析到File Footer长度
  • 再读FileFooter,从里面解析到各个Stripe信息,再读各个Stripe,即从后往前读。

 

3. PARQUET格式 ing

Parquet文件是以二进制方式存储的,所以是不可以直接读取的,文件中包括该文件的数据和元数据,因此Parquet格式文件是自解析的。

通常情况下,在存储Parquet数据的时候会按照HDFS的Block大小设置行组(多少行为一组?)大小。
由于一般情况下每一个Mapper任务处理数据的最小单位是一个Block,这样可以把每一个行组由一个Mapper任务处理,增大任务执行并行度。

Parquet文件的格式如下图所示:

在这里插入图片描述
上图展示了一个Parquet文件的内容,一个文件中可以存储多个行组,

  • 文件的首位是该文件的Magic Code,用于校验它是否是一个Parquet文件
  • Footer length记录了文件元数据的大小,通过该值和文件长度可以计算出元数据的偏移量
  • 元数据:包括行组的元数据信息和该文件存储数据的Schema信息。除了文件中每一个行组的元数据,每一页的开始都会存储该页的元数据。
  • 在Parquet中,有三种类型的页:数据页、字典页和索引页。
    • 数据页存储行组中该列的值;
    • 字典页存储该列值的编码字典,每一个列块中最多包含一个字典页
    • 索引页用来存储当前行组下该列的索引,目前Parquet中还不支持索引页。

 
 

三. Hive压缩格式

在实际工作当中,hive当中处理的数据,一般都需要经过压缩,使用压缩来节省我们的MR处理的网络带宽。

1. mr支持的压缩格式:

在这里插入图片描述
 
hadoop支持的解压缩的类:
在这里插入图片描述

 
压缩性能的比较:
在这里插入图片描述

 
hadoop需要配置的压缩参数:

在这里插入图片描述

 

2. hive配置压缩的方式:

2.1. 开启map端的压缩方式:

1.1)开启hive中间传输数据压缩功能hive (default)>set hive.exec.compress.intermediate=true;
1.2)开启mapreduce中map输出压缩功能hive (default)>set mapreduce.map.output.compress=true;
1.3)设置mapreduce中map输出数据的压缩方式hive (default)>set mapreduce.map.output.compress.codec= org.apache.hadoop.io.compress.SnappyCodec;
1.4)执行查询语句select count(1) from score;

2.2.开启reduce端的压缩方式:

1)开启hive最终输出数据压缩功能hive (default)>set hive.exec.compress.output=true;
2)开启mapreduce最终输出数据压缩hive (default)>set mapreduce.output.fileoutputformat.compress=true;
3)设置mapreduce最终数据输出压缩方式hive (default)> set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec;
4)设置mapreduce最终数据输出压缩为块压缩hive (default)>set mapreduce.output.fileoutputformat.compress.type=BLOCK;
5)测试一下输出结果是否是压缩文件insert overwrite local directory '/export/servers/snappy' select * from score distribute by s_id sort by s_id desc;

 
 

四. hive中存储格式和压缩相结合

以ORC举例,相关配置参数:
在这里插入图片描述

创建一个非压缩的ORC存储方式:

1)建表语句create table log_orc_none(track_time string,url string,session_id string)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS orc tblproperties ("orc.compress"="NONE");
2)插入数据insert into table log_orc_none select * from log_text ;
3)查看插入后数据dfs -du -h /user/hive/warehouse/myhive.db/log_orc_none;结果显示:7.7 M  /user/hive/warehouse/log_orc_none/123456_0

创建一个SNAPPY压缩的ORC存储方式:

1)建表语句create table log_orc_snappy(track_time string,url string,session_id string)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS orc tblproperties ("orc.compress"="SNAPPY");
2)插入数据insert into table log_orc_snappy select * from log_text ;
3)查看插入后数据dfs -du -h /user/hive/warehouse/myhive.db/log_orc_snappy ;结果显示: 3.8 M  /user/hive/warehouse/log_orc_snappy/123456_04)实际上:默认orc存储文件默认采用ZLIB压缩。比snappy压缩率还高。

存储方式和压缩总结:

在实际的项目开发当中,hive表的数据存储格式一般选择:orc或parquet。 压缩方式一般选择snappy。

 
 

五. hive主流存储格式性能对比

从存储文件的压缩比和查询速度两个角度对比

1. 压缩比比较

1)创建表,存储数据格式为TEXTFILE、ORC、Parquetcreate table log_text (track_time string,url string,session_id string,)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE  ;2)向表中加载数据load data local inpath '/export/servers/hivedatas/log.data' into table log_text ;3)查看表中数据大小,大小为18.1Mdfs -du -h /user/hive/warehouse/myhive.db/log_text;...
textfile:结果显示: 18.1 M  /user/hive/warehouse/log_text/log.dataORC 结果显示:2.8 M  /user/hive/warehouse/log_orc/123456_0Parquet结果显示:
13.1 M  /user/hive/warehouse/log_parquet/123456_0

数据压缩比结论: ORC > Parquet > textFile

 

2. 存储文件的查询效率测试

1)textfile
hive (default)> select count(*) from log_text;
_c0
100000
Time taken: 21.54 seconds, Fetched: 1 row(s)  2)orc
hive (default)> select count(*) from log_orc;
_c0
100000
Time taken: 20.867 seconds, Fetched: 1 row(s) 3)parquet
hive (default)> select count(*) from log_parquet; 
_c0
100000
Time taken: 22.922 seconds, Fetched: 1 row(s)

存储文件的查询效率比较: ORC > TextFile > Parquet

 
 

参考:
https://cloud.tencent.com/developer/article/1880494


http://www.ppmy.cn/news/81463.html

相关文章

C语言的一些杂记6

实现矩阵序号转置的三种方式 for (i 0; i < row * col; i)t[i / row][i % row] m[i % row][i / row];for (i 0; i < row; i)for (j 0; j < col; j)t[j][i] m[i][j];for (i 0; i < row; i)for (j 0; j < col; j)*(*(t j) i) *(*(m i) j); 变相数组 …

人类睡眠EEG分析:附代码实现的方法学入门

导读 近年来&#xff0c;人类睡眠脑电图(EEG)研究激增&#xff0c;采用了越来越复杂的分析策略将电生理活动与认知和疾病联系起来。然而&#xff0c;正确计算和解释当代睡眠EEG中使用的指标需要注意许多理论和实际的信号处理细节。本研究回顾了与频谱分析、蒙太奇选择、相位和…

【OpenCV DNN】Flask 视频监控目标检测教程 01

欢迎关注『OpenCV DNN Youcans』系列&#xff0c;持续更新中 【OpenCV DNN】Flask 视频监控目标检测教程 01 【OpenCV DNN】Flask 视频监控目标检测教程 01 1. 面向Python程序的Web框架2. Flask 框架的安装与使用2.1 Flask 安装2.2 Flask 框架例程2.3 绑定IP和端口2.4 Flask路…

三线制Pt100隔离器在掘进机电机保护系统中的应用

摘要&#xff1a;三线制Pt100隔离器相较于二线制的更加稳定可靠&#xff0c;在中低温地区有广泛的应用。掘进机电机保护系统中&#xff0c;利用三线制Pt100隔离器将热电阻信号转换为线性4-20mA电流信号&#xff0c;经过A/D转化&#xff0c;传输至PLC并显示&#xff0c;通过实时…

Aspose.Tasks for Java 23crack

Aspose.Tasks for Java 23crack 新属性允许您控制“分配成本”和“剩余成本”的自动计算。 Aspose.Tasks for Java是一个项目管理API&#xff0c;可帮助您操作Microsoft project文档。开发人员可以定义项目的主要属性和默认属性以及日历信息。他们还可以指定工作日和日历例外情…

还不懂 Spring Boot 启动流程的,看这一篇就够了!

通常&#xff0c;我们只需为一个类添加SpringBootApplication注解&#xff0c;然后再添加一个main方法&#xff0c;其内固定的写法为SpringApplication.run(Application.class, args)。由此&#xff0c;便可启动Spring Boot服务。 具体而言&#xff0c;Spring Boot的启动流程包…

【C++】运算符重载(日期类的实现)

【C】运算符重载&#xff08;日期类的实现&#xff09; 前言运算符重载operator全局和类中 日期类的实现成员变量的确定构造函数拷贝构造 运算符重载部分的重载思路实现GETmonthdayoperator 的重载思路实现 -的与-的重载实现 各个比较运算符的重载实现 前置与后置实现 &#xf…

《Java设计模式学习》迭代器模式

在这里&#xff0c;包括在很多的书中&#xff0c;我们都会看到设计模式的Demo都很简单。但是我们在实际开发过程中&#xff0c;却往往很少用到类似的设计模式。 但是大家在看到这篇文章的时候&#xff0c;希望大家可以动手敲一下。也许在敲击的过程中&#xff0c;你能获取到一定…