学习大数据DAY42 hive 分桶表

embedded/2024/9/23 2:15:34/

目录

分桶表

分桶表注意事项

hive%20%E5%88%86%E6%A1%B6%E8%A1%A8-%E5%88%9B%E5%BB%BA%E5%88%86%E6%A1%B6%E8%A1%A8-toc" style="margin-left:80px;">hive 分桶表-创建分桶表

hive%20%E6%8E%92%E5%BA%8F%E5%85%B3%E9%94%AE%E5%AD%97-toc" style="margin-left:80px;">hive 排序关键字

hive%20%E6%8E%92%E5%BA%8F%E8%AF%AD%E5%8F%A5-toc" style="margin-left:80px;">hive 排序语句

上机练习


分桶表

分区提供一个隔离数据和优化查询的便利方式。不过,并非所有的数据集都可形
成合理的分区。对于一张表或者分区,Hive 可以进一步组织成桶,也就是更为
细粒度的数据范围划分。
分桶是将数据集分解成更容易管理的若干部分的另一个技术。
分区针对的是数据的存储路径;分桶针对的是数据文件。

分桶表注意事项

分桶策略
Hive 的分桶采用对分桶字段的值进行哈希,然后除以桶的个数求余的方 式决定
该条记录存放在哪个桶当中.
reduce 的个数设置为-1,让 Job 自行决定需要用多少个 reduce 或者将 reduce 的
个数设置为大于等于分桶表的桶数
从 hdfs 中 load 数据到分桶表中,避免本地文件找不到问题
不要使用本地模式

hive%20%E5%88%86%E6%A1%B6%E8%A1%A8-%E5%88%9B%E5%BB%BA%E5%88%86%E6%A1%B6%E8%A1%A8">hive 分桶表-创建分桶表

--创建 4 个分桶的分桶表
create table stu_bucket(id int, name string)
clustered by(id)
into 4 buckets
row format delimited fields terminated by '\t';
--设置 mapreduce 数量(二选一)
set mapreduce.job.reduces=3
set mapred.reduce.tasks=3
--向分桶表导入数据
load data inpath
'/student.txt' into table stu_bucket;

hive%20%E6%8E%92%E5%BA%8F%E5%85%B3%E9%94%AE%E5%AD%97">hive 排序关键字

hive%20%E6%8E%92%E5%BA%8F%E8%AF%AD%E5%8F%A5">hive 排序语句

--使用 order by 排序
select * from student2 order by id
--使用 sort by 排序
select * from student2 sort by class_name desc
--使用 distribute by 分组
set mapreduce.job.reduces=15;
select * from student2 distribute by class_name sort by id desc
insert overwrite
local directory '/root/student2/'
row format delimited fields terminated by '\t'
select * from student2_b
distribute by sex
sort by chinese desc
--使用 cluster by 分组并排序
select * from student2 cluster by class_name

上机练习

然而作业和分桶表并没有关系~
1 清洗函数
2 pyhive 连接函数
3 文件判断
import os,datetime
fpath='/root/'
fname1='2021-12-31.log'
fname2='2021-05-20.log'
fname3='2021-07-02.log'
fname4='2021-07-03.log'
fname5='2021-07-04.log'list_fname=[fname1,fname2,fname3,fname4,fname5]
etl_fname1=f'{fpath}etl_{fname1.strip(".log")}.txt'
etl_fname2=f'{fpath}etl_{fname2.strip(".log")}.txt'
etl_fname3=f'{fpath}etl_{fname3.strip(".log")}.txt'
etl_fname4=f'{fpath}etl_{fname4.strip(".log")}.txt'
etl_fname5=f'{fpath}etl_{fname5.strip(".log")}.txt'
list_etl_fname=[etl_fname1,etl_fname2,etl_fname3,etl_fname4,et
l_fname5]
def etl_data(fpath,fname,etl_fname):
with open(fpath+fname,'r',encoding='utf-8') as f:
with open(etl_fname,'a',encoding='utf-8') as f1:
str1=f.readlines()
for l in str1:
lit=l.split(' ')
# 提取 IP
ip=lit[0]
# 提取时间
date=datetime.datetime.strptime(lit[3],'[%d/%b/
%Y:%H:%M:%S')
date=datetime.datetime.strftime(date,'%Y-%m-%d %
H:%M:%S')
# 提取 URL
url=lit[6]
# 提取系统类型
lit1=l.split('"')
header=lit1[-2]
if header.find('Linux')>=0:
systype='Linux'
elif header.find('Mac OS')>=0:
systype='Mac OS'
elif header.find('Windows')>=0:
systype='Windows'
else:
systype='unknown'
# 提取浏览器类型
if header.find('Chrome')>=0:
browser='Chrome'
elif header.find('Firefox')>=0:
browser='Firefox'
elif header.find('Safari')>=0:
browser='Safari'
elif header.find('Presto')>=0:
browser='Presto'else:
browser='unknown'
# 写入文件
result=f'{ip}\t{date}\t{url}\t{systype}\t{brows
er}\n'
f1.write(result)
f1.close()
f.close()
if __name__=='__main__':
for i in range(5):
etl_data(fpath,list_fname[i],list_etl_fname[i])
load_sql=f"load data local inpath '{list_etl_fname[i]}'
into table log partition
(load_date='{list_fname[i].strip('.log')}')"
hive_command=f'beeline -u
"jdbc:hive2://hadoop100:10000/db_hive" -n root -p 123456 -e
"{load_sql}"'
os.system(hive_command)
4 show partitions log
5 select load_date,count(1) from log group by load_date
内存不够跑不了这句,一句一句来吧。分开写查一个都要 50 多秒。
select count ( 1 ) from log where load_date= '2021-05-20'
select count ( 1 ) from log where load_date= '2021-07-02'
select count ( 1 ) from log where load_date= '2021-07-03'
select count ( 1 ) from log where load_date= '2021-12-31'
select count ( 1 ) from log where load_date= '2021-07-04'

http://www.ppmy.cn/embedded/98897.html

相关文章

微信小程序--31(todolist案例)

一.功能 输入待办事件添加代办事件删除代办事件 二、步骤 1.添加输入框 .wxml代码&#xff1a; <!-- 1.输入框 --><input type"text" bindinput"handleInput" value"{{text}}" /> .wxss代码&#xff1a; /* 1.输入框样式 */ i…

QT :VS2019 CMake QCefView编译

QCefView 介绍 QCefView是为Qt开发的一个封装集成了CEF&#xff08;Chromium Embedded Framework&#xff09;库的Widget UI组件。它允许开发者在Qt项目中轻松嵌入网页&#xff0c;并利用CEF的丰富Web能力来快速开发混合架构的应用程序。 Web能力集成&#xff1a;QCefView集成…

STM32中断系统之TIM定时中断

文章目录 前言一、TIM定时器简介1.1 定时器的基本功能1.2 时基单元1.3 定时器的其他功能1.4 TIM定时器的分类 二、TIM定时器的内部结构2.1 基本定时器2.2 通用定时器2.3 高级定时器 三、定时中断的基本结构四、时序图4.1 预分频器时序4.2 计数器时序4.3 计数器无预装时序4.4 计…

大模型在网络安全领域的七大应用

人工智能&#xff08;AI&#xff09;是指由计算机系统或机器执行的智能任务&#xff0c;通常需要人类智能来完成。AI的一个重要分支是自然语言处理&#xff08;NLP&#xff09;&#xff0c;即让计算机理解和生成自然语言。NLP的一个核心技术是语言模型&#xff08;LM&#xff0…

SD-WAN安全:在灵活性与安全性之间找到平衡

随着企业业务的不断扩展和数字化转型的加速&#xff0c;网络架构的灵活性和安全性成为了企业关注的重点。SD-WAN&#xff08;软件定义广域网&#xff09;作为一种新兴的网络架构&#xff0c;通过软件定义和虚拟化技术&#xff0c;为企业提供了更灵活、可靠、经济高效的广域网连…

基于springboot的招聘系统的设计与实现

TOC springboot614基于springboot的招聘系统的设计与实现--论文 研究背景 近年来&#xff0c;由于计算机技术和互联网技术的快速发展&#xff0c;使得所有企事业单位内部都是数字化、信息化、无纸化的发展趋势&#xff0c;随着趋势的发展&#xff0c;各种决策系统、辅助系统…

轨迹优化 | 基于ESDF的共轭梯度优化算法(附ROS C++/Python仿真)

目录 0 专栏介绍1 数值优化:共轭梯度法2 基于共轭梯度法的轨迹优化2.1 障碍约束函数2.2 曲率约束函数2.3 平滑约束函数3 算法仿真3.1 ROS C++实现3.2 Python实现0 专栏介绍 🔥课设、毕设、创新竞赛必备!🔥本专栏涉及更高阶的运动规划算法轨迹优化实战,包括:曲线生成、…

postgresql 使用explain 进行SQL分析

文章目录 扫描节点案例注意 扫描节点 Seq Scan&#xff1a;顺序扫描&#xff08;全表扫描&#xff09;Index Scan&#xff1a;索引扫描&#xff08;不只是返回索引列的值&#xff09;IndexOnly Scan&#xff1a;索引扫描&#xff08;只返回索引列的值&#xff09;BitmapIndex …