Hive中的DDL操作

news/2024/10/31 5:35:10/

文章目录

  • Hive中的DDL操作
    • 一、数据库(database)相关操作
      • 1. 创建数据库
        • 1)语法
        • 2)案例
      • 2. 查询数据库
        • 1)展示所有数据库
        • 2)查看数据库信息
      • 3. 修改数据库
        • 1)语法
        • 2)案例
      • 4. 删除数据库
        • 1)语法
        • 2)案例
      • 5. 切换当前数据库
        • 1)语法
        • 2)案例
    • 二、表(table)相关操作
      • 1. 创建表
        • 1.1 语法
          • 1)普通建表
          • 2)Create Table As Select(CTAS)建表
          • 3)Create Table Like语法
        • 1.2 案例
          • 1)内部表与外部表
          • 2)SERDE和复杂数据类型
          • 3)create table as select和create table like
      • 2. 查看表
        • 1)展示所有表
        • 2)查看表信息
      • 3. 修改表
        • 1)重命名表
        • 2)修改列信息
        • 3)案例
      • 4. 删除表
        • 1)语法
        • 2)案例
      • 5. 清空表
        • 1)语法
        • 2)案例

Hive中的DDL操作

DDL(Data Definition Language)语句: 数据定义语言,主要是进行定义/改变表的结构、数据类型、表之间的链接等操作。常用的语句关键字有 CREATE、DROP、ALTER 等。

对有SQL基础的朋友来说,内容相对简单。

一、数据库(database)相关操作

1. 创建数据库

1)语法

CREATE DATABASE [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];

2)案例

(1)创建一个数据库,不指定路径

create database db_hive1;

image-20230608092825613

注:若不指定路径,其默认路径为${hive.metastore.warehouse.dir}/database_name.db

image-20230608093048940

(2)创建一个数据库,指定路径

create database db_hive2 location '/db_hive2';

image-20230608093133895

查看数据库所在位置:

image-20230403081636565

(3)创建一个数据库,带有dbproperties

create database db_hive3 with dbproperties('create_date'='2022-11-18');

image-20230403081910823

查看数据库:

image-20230608093536066

2. 查询数据库

1)展示所有数据库

(1)语法

SHOW DATABASES [LIKE 'identifier_with_wildcards'];

注:like通配表达式说明:*表示任意个任意字符,|表示或的关系。

(2)案例

查询所有数据库:

show databases;

image-20230608093639972

查询所有带有db_hive前缀的数据库:

show databases like 'db_hive*';

image-20230608094627034

2)查看数据库信息

(1)语法

DESCRIBE DATABASE [EXTENDED] db_name;

(2)案例

①查看基本信息

desc database db_hive3;

image-20230608094719429

②查看更多信息

desc database extended db_hive3;

image-20230608094750701

extended表示是否展示更为详尽的信息。

3. 修改数据库

用户可以使用alter database命令修改数据库某些信息,其中能够修改的信息包括dbproperties、location、owner user。

需要注意的是:修改数据库location,不会改变当前已有表的路径信息,而只是改变后续创建的新表的默认的父目录

1)语法

--修改dbproperties
ALTER DATABASE database_name SET DBPROPERTIES (property_name=property_value, ...);--修改location
ALTER DATABASE database_name SET LOCATION hdfs_path;--修改owner user
ALTER DATABASE database_name SET OWNER USER user_name;

2)案例

(1)修改dbproperties

ALTER DATABASE db_hive3 SET DBPROPERTIES ('create_date'='2022-11-20');

image-20230608095411504

4. 删除数据库

1)语法

DROP DATABASE [IF EXISTS] database_name [RESTRICT|CASCADE];

注:

  • RESTRICT:严格模式,若数据库不为空,则会删除失败,默认为该模式。
  • CASCADE:级联模式,若数据库不为空,则会将库中的表一并删除。

2)案例

(1)删除空数据库

drop database db_hive2;

image-20230608095642844

(2)删除非空数据库

drop database db_hive3 cascade;

image-20230608095711726

5. 切换当前数据库

1)语法

USE database_name;

2)案例

切换到db_hive1:

use db_hive1;

image-20230608095836039

二、表(table)相关操作

1. 创建表

1.1 语法

1)普通建表

(1)完整语法

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name   
[(col_name data_type [COMMENT col_comment], ...)]
[COMMENT table_comment][ROW FORMAT row_format] 
[STORED AS file_format]
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]

(2)关键字说明:

①TEMPORARY

临时表,该表只在当前会话可见,会话结束,表会被删除。

②EXTERNAL(重点)

外部表,与之相对应的是内部表(管理表)。管理表意味着Hive会完全接管该表,包括元数据和HDFS中的数据。而外部表则意味着Hive只接管元数据,而不完全接管HDFS中的数据。

③data_type(重点)

Hive中的字段类型可分为基本数据类型和复杂数据类型。

基本数据类型如下:

Hive说明定义
tinyint1byte有符号整数
smallint2byte有符号整数
int4byte有符号整数
bigint8byte有符号整数
boolean布尔类型,true或者false
float单精度浮点数
double双精度浮点数
decimal十进制精准数字类型decimal(16,2)
varchar字符序列,需指定最大长度,最大长度的范围是[1,65535]varchar(32)
string字符串,无需指定最大长度
timestamp时间类型
binary二进制数据

复杂数据类型如下:

类型说明定义取值
array数组是一组相同类型的值的集合arrayarr[0]
mapmap是一组相同类型的键-值对集合map<string, int>map[‘key’]
struct结构体由多个属性组成,每个属性都有自己的属性名和数据类型struct<id:int, name:string>struct.id

注:类型转换

Hive的基本数据类型可以做类型转换,转换的方式包括隐式转换以及显示转换。

方式一:隐式转换

具体规则如下:

a. 任何整数类型都可以隐式地转换为一个范围更广的类型,如tinyint可以转换成int,int可以转换成bigint。

b. 所有整数类型、float和string类型都可以隐式地转换成double。

c. tinyint、smallint、int都可以转换为float。

d. boolean类型不可以转换为任何其它的类型。

详情可参考Hive官方说明:Allowed Implicit Conversions

方式二:显示转换

可以借助cast函数完成显示的类型转换

a.语法

cast(expr as <type>)

b.案例

select '1' + 2, cast('1' as int) + 2;

image-20230608100049221

④PARTITIONED BY(重点)
创建分区表

⑤CLUSTERED BY … SORTED BY…INTO … BUCKETS(重点)
创建分桶表

⑥ROW FORMAT(重点)

指定SERDE,SERDE是Serializer and Deserializer的简写。Hive使用SERDE序列化和反序列化每行数据。详情可参考 Hive-Serde。语法说明如下:

语法一:DELIMITED关键字表示对文件中的每个字段按照特定分割符进行分割,其会使用默认的SERDE对每行数据进行序列化和反序列化。

ROW FORAMT DELIMITED 
[FIELDS TERMINATED BY char] 
[COLLECTION ITEMS TERMINATED BY char] 
[MAP KEYS TERMINATED BY char] 
[LINES TERMINATED BY char] 
[NULL DEFINED AS char]

注:

  • fields terminated by :列分隔符
  • collection items terminated by : map、struct和array中每个元素之间的分隔符
  • map keys terminated by :map中的key与value的分隔符
  • lines terminated by :行分隔符

语法二:SERDE关键字可用于指定其他内置的SERDE或者用户自定义的SERDE。例如JSON SERDE,可用于处理JSON字符串。

ROW FORMAT SERDE serde_name [WITH SERDEPROPERTIES (property_name=property_value,property_name=property_value, ...)]

⑦STORED AS(重点)

指定文件格式,常用的文件格式有,textfile(默认值),sequence file,orc file、parquet file等等。

⑧LOCATION

指定表所对应的HDFS路径,若不指定路径,其默认值为

${hive.metastore.warehouse.dir}/db_name.db/table_name

⑨TBLPROPERTIES
用于配置表的一些KV键值对参数

2)Create Table As Select(CTAS)建表

该语法允许用户利用select查询语句返回的结果,直接建表,表的结构和查询语句的结构保持一致,且保证包含select查询语句放回的内容。

CREATE [TEMPORARY] TABLE [IF NOT EXISTS] table_name 
[COMMENT table_comment] 
[ROW FORMAT row_format] 
[STORED AS file_format] 
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]
[AS select_statement]
3)Create Table Like语法

该语法允许用户复刻一张已经存在的表结构,与上述的CTAS语法不同,该语法创建出来的表中不包含数据。

CREATE [TEMPORARY] [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name
[LIKE exist_table_name]
[ROW FORMAT row_format] 
[STORED AS file_format] 
[LOCATION hdfs_path]
[TBLPROPERTIES (property_name=property_value, ...)]

1.2 案例

1)内部表与外部表

(1)内部表

Hive中默认创建的表都是的内部表,有时也被称为管理表。对于内部表,Hive会完全管理表的元数据和数据文件。

创建内部表如下:

create table if not exists student(id int, name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

image-20230608101254863

准备其需要的文件如下,注意字段之间的分隔符。

vim /opt/module/datas/student.txt

数据内容如下:

1001	student1
1002	student2
1003	student3
1004	student4
1005	student5
1006	student6
1007	student7
1008	student8
1009	student9
1010	student10
1011	student11
1012	student12
1013	student13
1014	student14
1015	student15
1016	student16

上传文件到Hive表指定的路径

hadoop fs -put student.txt /user/hive/warehouse/student

查看表,发现数据已经导入表中:

select * from student;

image-20230608101557958

找到原因:发现是因为先上传的数据,然后再创建的表。删除数据后重新上传,解决问题。

image-20230608102314198

删除表,观察数据HDFS中的数据文件是否还在,发现已经不存在了。

drop table student;

image-20230608102356956

(2)外部表

外部表通常可用于处理其他工具上传的数据文件,对于外部表,Hive只负责管理元数据,不负责管理HDFS中的数据文件。

注意:

在创建内部表的时候可以不指定路径进行创建,但是在创建外部表的时候,需要指定外部数据的存储位置,也就是指定外部存储的路径。外部表本身并没有真正存储数据,而是引用了外部存储中的数据。

创建外部表如下:

create external table if not exists student(id int,name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

image-20230608103100638

上传文件到Hive表指定的路径

hadoop fs -put student.txt /user/hive/warehouse/student

删除表,观察数据HDFS中的数据文件是否还在

drop table student;

image-20230608103311990

我们发现,虽然表已经删除了,但数据文件还在。

2)SERDE和复杂数据类型

本案例重点练习SERDE和复杂数据类型的使用。

若现有如下格式的JSON文件需要由Hive进行分析处理,请考虑如何设计表?

注:以下内容为格式化之后的结果,文件中每行数据为一个完整的JSON字符串。

{"name": "dasongsong","friends": ["bingbing","lili"],"students": {"xiaohaihai": 18,"xiaoyangyang": 16},"address": {"street": "hui long guan","city": "beijing","postal_code": 10010}
}

我们可以考虑使用专门负责JSON文件的JSON Serde,设计表字段时,表的字段与JSON字符串中的一级字段保持一致,对于具有嵌套结构的JSON字符串,考虑使用合适复杂数据类型保存其内容。最终设计出的表结构如下:

create table teacher
(name     string,friends  array<string>,students map<string,int>,address  struct<city:string,street:string,postal_code:int>
)
row format serde 'org.apache.hadoop.hive.serde2.JsonSerDe'
location '/user/hive/warehouse/teacher';

创建该表:

image-20230608103516800

准备以下文件:

注意,需要确保文件中每行数据都是一个完整的JSON字符串,JSON SERDE才能正确的处理。

vim /opt/module/datas/teacher.txt
{"name":"dasongsong","friends":["bingbing","lili"],"students":{"xiaohaihai":18,"xiaoyangyang":16},"address":{"street":"hui long guan","city":"beijing","postal_code":10010}}

上传文件到Hive表指定的路径

hadoop fs -put teacher.txt /user/hive/warehouse/teacher

尝试从复杂数据类型的字段中取值

select * from teacher;teacher.name    teacher.friends         teacher.students        teacher.address
dasongsong      ["bingbing","lili"]     {"xiaohaihai":18,"xiaoyangyang":16}     {"city":"beijing","street":"hui long guan","postal_code":10010}
3)create table as select和create table like

(1)create table as select

create table teacher1 as select * from teacher;

image-20230608104041978

查询数据:

select * from teacher1;

image-20230608104420535

(2)create table like

create table teacher2 like teacher;

image-20230608104223617

创建的表中不包含数据。

select * from teacher2;

image-20230608104452341

2. 查看表

1)展示所有表

(1)语法

SHOW TABLES [IN database_name] LIKE ['identifier_with_wildcards'];

注:like通配表达式说明:*表示任意个任意字符,|表示或的关系。

(2)案例

show tables like 'te*';

image-20230608104305269

2)查看表信息

(1)语法

DESCRIBE [EXTENDED | FORMATTED] [db_name.]table_name

注:

  • EXTENDED:展示详细信息
  • FORMATTED:对详细信息进行格式化的展示

(2)案例

①查看基本信息

desc teacher;
hive (db_hive1)> desc teacher;
OK
col_name        		data_type       		comment
name                    string                  from deserializer   
friends                 array<string>           from deserializer   
students                map<string,int>         from deserializer   
address                 struct<city:string,street:string,postal_code:int>       from deserializer   
Time taken: 0.035 seconds, Fetched: 4 row(s)

②查看更多信息

desc formatted teacher;
hive (db_hive1)> desc formatted teacher;
OK
col_name        data_type       comment
# col_name              data_type               comment             
name                    string                  from deserializer   
friends                 array<string>           from deserializer   
students                map<string,int>         from deserializer   
address                 struct<city:string,street:string,postal_code:int>       from deserializer   # Detailed Table Information             
Database:               db_hive1                 
OwnerType:              USER                     
Owner:                  root                     
CreateTime:             Thu Jun 08 10:34:51 CST 2023     
LastAccessTime:         UNKNOWN                  
Retention:              0                        
Location:               hdfs://node1:9000/user/hive/warehouse/teacher    
Table Type:             MANAGED_TABLE            
Table Parameters:                COLUMN_STATS_ACCURATE   {\"BASIC_STATS\":\"true\",\"COLUMN_STATS\":{\"address\":\"true\",\"friends\":\"true\",\"name\":\"true\",\"students\":\"true\"}}bucketing_version       2                   numFiles                0                   numRows                 0                   rawDataSize             0                   totalSize               0                   transient_lastDdlTime   1686191691          # Storage Information            
SerDe Library:          org.apache.hadoop.hive.serde2.JsonSerDe  
InputFormat:            org.apache.hadoop.mapred.TextInputFormat         
OutputFormat:           org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat       
Compressed:             No                       
Num Buckets:            -1                       
Bucket Columns:         []                       
Sort Columns:           []                       
Storage Desc Params:             serialization.format    1                   
Time taken: 0.061 seconds, Fetched: 34 row(s)

3. 修改表

1)重命名表

(1)语法

ALTER TABLE table_name RENAME TO new_table_name

(2)案例

创建表:

create table if not exists stu(id int, name string
);

image-20230608105624715

重命名表

alter table stu rename to stu1;

image-20230608105728315

注意:

  • 修改的表要存在;
  • 修改后的表不要与已存在的表重名。

2)修改列信息

(1)语法

①增加列

该语句允许用户增加新的列,新增列的位置位于末尾。

ALTER TABLE table_name ADD COLUMNS (col_name data_type [COMMENT col_comment], ...)

②更新列
该语句允许用户修改指定列的列名、数据类型、注释信息以及在表中的位置。

ALTER TABLE table_name CHANGE [COLUMN] col_old_name col_new_name column_type [COMMENT col_comment] [FIRST|AFTER column_name]

③替换列

该语句允许用户用新的列集替换表中原有的全部列。

ALTER TABLE table_name REPLACE COLUMNS (col_name data_type [COMMENT col_comment], ...)

3)案例

(1)查询表结构

desc stu1;

image-20230608105754227

(2)添加列

添加一个列age,类型为int

alter table stu1 add columns (age int);

(3)查询表结构

desc stu1;

image-20230608105837781

(4)更新列

将列age修改为ages,类型为double

alter table stu1 change column age ages double;

image-20230608110149782

(5)替换列

alter table stu1 replace columns(id int, name string);

image-20230608110548757

4. 删除表

1)语法

DROP TABLE [IF EXISTS] table_name;

2)案例

drop table stu1;

image-20230608110721986

5. 清空表

1)语法

TRUNCATE [TABLE] table_name

注意:truncate只能清空管理表,不能删除外部表中数据。

2)案例

(1)内部表(管理表)测试

创建内部表:

create table if not exists student(id int, name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

image-20230608110903389

清空表:

```hive在这里插入代码片
truncate table student;


![image-20230608111113426](https://img-blog.csdnimg.cn/img_convert/6e887ec8236b5eeea1f7527b928b31b3.png)查询数据:```hive
select * from student;

image-20230608111101010

发现表中已经没有数据了,查看hdfs中是否有数据:

image-20230608111213233

删除表:

drop table student;

(2)外部表测试

创建外部表:

create external table if not exists student(id int,name string
)
row format delimited fields terminated by '\t'
location '/user/hive/warehouse/student';

上传文件到指定路径:

hadoop fs -put student.txt /user/hive/warehouse/student

查询数据:

select * from student;

image-20230608111528748

清空表:

truncate table student;

出现错误:

hive (db_hive1)> truncate table student;
FAILED: SemanticException [Error 10146]: Cannot truncate non-managed table student.

这个错误提示说明您尝试对一个非托管表进行truncate操作。在Apache Hive中,托管表(managed table)是由Hive自己管理其数据存储的表,因此,当您在Hive中执行TRUNCATE操作时,Hive会直接删除表中的所有数据,而存储表结构和元数据。

相反,非托管表(external table)是由用户管理其数据存储的表。对于非托管表,Hive不负责管理其数据存储,也不会对其执行数据的移动或者删除操作。因此,如果您尝试对一个非托管表执行TRUNCATE操作,将会得到类似于 “Cannot truncate non-managed table” 这样的错误提示。

如果您需要对非托管表清空数据,可以尝试使用HDFS命令或其他工具删除表数据存储路径下的数据文件。

参考链接:

1.聊聊SQL语句中 DDL 、DML 、DQL 、DCL 分别是什么https://blog.csdn.net/qq_45069279/article/details/115270096
2.尚硅谷大数据Hive 3.x教程全新升级版(基于hive3.1.3)p16-p27
3.HIve安装配置(超详细)
https://blog.csdn.net/W_chuanqi/article/details/130242723

http://www.ppmy.cn/news/275703.html

相关文章

selenium python教程第1章

1. 安装 1.1. 安装 Selenium Python bindings 提供了一个简单的API&#xff0c;让你使用Selenium WebDriver来编写功能/校验测试。 通过Selenium Python的API&#xff0c;你可以非常直观的使用Selenium WebDriver的所有功能。 Selenium Python bindings 使用非常简洁方便的AP…

618有哪些数码好物值得买?2023年618数码好物必买清单

618作为年中大促节点&#xff0c;很多的产品会迎来历史最低价&#xff0c;正是入手数码产品的最佳时间点。很多人在选择物品时难免会产生618有哪些数码好物值得买的疑惑?为此&#xff0c;我也整理了一份618数码好物清单&#xff0c;都是一些实用性很强的数码好物&#xff0c;希…

运行一个新vue项目踩坑

npm install报错了&#xff0c;主要是因为node版本太高了。去node官网&#xff0c;下载低版本的msi后缀的文件&#xff0c;运行安装。在vs code里&#xff0c;npm下载依赖&#xff0c;并运行即可。 1. 无法cnpm cnpm : 无法加载文件 D:\Program Files\nodejs\node_global\cnpm.…

高清渐变动态壁纸来了 手把手教你做动态壁纸

大家好~这里是小老弟&#xff0c;干货分享它又来咯~&#xff01;有不少人在自己的手机上会设定动态渐变背景壁纸&#xff0c;动态背景百看不腻&#xff0c;无聊的时候还能盯着看会儿解闷。那么问题来了&#xff0c;全网找了一遍都没有自己喜欢的动态壁纸怎么办&#xff1f;接下…

JAVA代码程序如何调用电商API,获取电商数据?

电商API是为了实现各个电商平台之间数据交换而提供的网络接口。Java是一种流行的编程语言&#xff0c;可以通过调用API来获得电商平台提供的各种服务&#xff0c;如商品列表、订单状态等。在这篇文章中&#xff0c;我们将详细介绍如何使用Java代码调用电商API。 1.寻找电商平台…

猫猫壁纸

工作机子里收藏的猫猫壁纸&#xff0c;自己收藏是拿来做屏保用的&#xff0c;现在贴出几张有意思的给大家收藏&#xff1a;

如何提高浪涌保护器的使用寿命和安全性

浪涌保护是保护设施免受电气事件影响的基本要求。具体来说&#xff0c;浪涌保护器&#xff08;SPD&#xff09;旨在限制瞬态电压并转移浪涌电流以保护系统和设备。 SPD浪涌保护器必须考虑的一种现象是临时过电压&#xff08;TOV&#xff09;。传统设备处理 TOV 的方式可能会导…

cesium学习之旅1:cesium 基本介绍以及 cesium 的 hello world 程序

一&#xff1a;什么是Cesium Cesium 是一个跨平台、跨浏览器的展示三维地球和地图的 javascript 库。Cesium 使用WebGL 来进行硬件加速图形&#xff0c;使用时不需要任何插件支持&#xff0c;但是浏览器必须支持WebGL。Cesium是基于Apache2.0 许可的开源程序。它可以免费的用于…