黑马大数据学习笔记4-Hive部署和基本操作

news/2025/4/1 6:55:25/

目录

  • 思考
  • 规划
  • 安装MySQL数据库
  • 修改root用户密码
  • 配置Hadoop
  • 下载解压Hive
  • 提供MySQL Driver包
  • 配置Hive
  • 初始化元数据库
  • 启动Hive(使用Hadoop用户)
  • Hive体验
  • HiveServer2
    • HiveServer2服务
    • 启动
  • Beeline

p48、51、52
https://www.bilibili.com/video/BV1WY4y197g7/?p=48

思考

Hive是分布式运行的框架还是单机运行的?

Hive是单机工具,只需要部署在一台服务器即可。
Hive虽然是单机的,但是它可以提交分布式运行的MapReduce程序运行。

规划

我们知道Hive是单机工具后,就需要准备一台服务器供Hive使用即可。
同时Hive需要使用元数据服务,即需要提供一个关系型数据库,我们也选择一台服务器安装关系型数据库即可。

所以:

服务机器
Hive本体部署在node1
元数据服务所需的关系型数据库(课程选择最为流行的MySQL)部署在node1

为了简单起见,都安装到node1服务器上。

安装MySQL数据库

我们在node1节点使用yum在线安装MySQL5.7版本。

在root用户下执行

更新密钥

rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022

安装Mysql yum库

rpm -Uvh http://repo.mysql.com//mysql57-community-release-el7-7.noarch.rpm

yum安装Mysql

yum -y install mysql-community-server

在这里插入图片描述
启动Mysql设置开机启动

systemctl start mysqld
systemctl enable mysqld

检查Mysql服务状态

systemctl status mysqld

第一次启动mysql,会在日志文件中生成root用户的一个随机密码,使用下面命令查看该密码

grep 'temporary password' /var/log/mysqld.log

在这里插入图片描述

修改root用户密码

进入mysql

mysql -uroot -p

然后输入密码,回车。

如果你想设置简单密码,需要降低Mysql的密码安全级别
密码安全级别低

set global validate_password_policy=LOW;

密码长度最低4位即可

set global validate_password_length=4;

然后就可以用简单密码了(课程中使用简单密码,为了方便,生产中不要这样)

修改root本机登录密码为123456

ALTER USER 'root'@'localhost' IDENTIFIED BY '123456';

/usr/bin/mysqladmin -u root password ‘root’
修改远程登录密码,打开root用户从任意地方的主机远程登录的权限

grant all privileges on *.* to root@"%" identified by '123456' with grant option;  

刷新权限

flush privileges;

在这里插入图片描述
ctrl+D退出mysql。
重新进入mysql验证密码是否修改完成。

mysql -uroot -p

在这里插入图片描述

配置Hadoop

Hive的运行依赖于Hadoop(HDFS、MapReduce、YARN都依赖)
同时涉及到HDFS文件系统的访问,所以需要配置Hadoop的代理用户
即设置hadoop用户允许代理(模拟)其它用户

切换到hadoop用户

su - hadoop
cd /export/server/hadoop/etc/hadoop/
vim core-site.xml

添加如下内容在Hadoop的core-site.xml的<configuration></configuration>之间,并分发到其它节点,且重启HDFS集群。

<property><name>hadoop.proxyuser.hadoop.hosts</name><value>*</value>
</property><property><name>hadoop.proxyuser.hadoop.groups</name><value>*</value>
</property>

下载解压Hive

下载Hive安装包:
http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz
将下载好的文件拖拽上传
在这里插入图片描述

解压到node1服务器的:/export/server/内

tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /export/server/

建立软链接

ln -s /export/server/apache-hive-3.1.3-bin /export/server/hive

在这里插入图片描述

提供MySQL Driver包

下载MySQL驱动包:
https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-5.1.34.jar

将下载好的驱动jar包,放入:Hive安装文件夹的lib目录内

mv mysql-connector-java-5.1.34.jar /export/server/apache-hive-3.1.3-bin/lib/

配置Hive

在Hive的conf目录内,新建hive-env.sh文件,填入以下环境变量内容:

cd /export/server/hive/conf
mv hive-env.sh.template hive-env.sh
vim hive-env.sh
export HADOOP_HOME=/export/server/hadoop
export HIVE_CONF_DIR=/export/server/hive/conf
export HIVE_AUX_JARS_PATH=/export/server/hive/lib

在Hive的conf目录内,新建hive-site.xml文件,填入以下内容:

vim hive-site.xml
<configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value></property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value></property><property><name>javax.jdo.option.ConnectionPassword</name><value>123456</value></property><property><name>hive.server2.thrift.bind.host</name><value>node1</value></property><property><name>hive.metastore.uris</name><value>thrift://node1:9083</value></property><property><name>hive.metastore.event.db.notification.api.auth</name><value>false</value></property>
</configuration>

初始化元数据库

支持,Hive的配置已经完成,现在在启动Hive前,需要先初始化Hive所需的元数据库。
在MySQL中新建数据库:hive

mysql -uroot -p
show databases;
CREATE DATABASE hive CHARSET UTF8;
show databases;

在这里插入图片描述
退出mysql

exit

执行元数据库初始化命令:

cd /export/server/hive/bin
./schematool -initSchema -dbType mysql -verbos

初始化成功后,会在MySQL的hive库中新建74张元数据管理的表。

mysql -uroot -p
show databases;
use hive
show tables;

在这里插入图片描述
退出mysql

exit

启动Hive(使用Hadoop用户)

修改文件权限

chown -R hadoop:hadoop apache-hive-3.1.3-bin hive

在这里插入图片描述

  • 确保Hive文件夹所属为hadoop用户
  • 创建一个hive的日志文件夹:
su - hadoop
mkdir /export/server/hive/logs
cd /export/server/hive
  • 启动元数据管理服务(必须启动,否则无法工作)

前台启动:

bin/hive --service metastore 

后台启动:

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &

查看日志

tail -f  metastore.log

在这里插入图片描述

  • 启动客户端,二选一(当前先选择Hive Shell方式)
    确保metastore、hdfs和yarn都已经启动
    Hive Shell方式(可以直接写SQL):
bin/hive

Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用):

bin/hive --service hiveserver2

在这里插入图片描述

Hive体验

首先,确保启动了Metastore服务、hdfs和yarn集群。

start-dfs.sh
start-yarn.sh
mapred --daemon start historyserver
nohup /export/server/hive/bin/hive --service metastore >> /export/server/hive/logs/metastore.log 2>&1 &

可以执行:

cd /export/server/hive
bin/hive

进入到Hive Shell环境中,可以直接执行SQL语句。
创建表

CREATE TABLE test(id INT, name STRING, gender STRING);
show tables;

插入数据

insert into test values(1,'mm','nan');
INSERT INTO test VALUES(2,'王力红','男'),(3,'李华','女');

会执行得有点慢。。。

查询数据

SELECT gender, COUNT(*) AS cnt FROM test GROUP BY gender;

在这里插入图片描述

验证SQL语句启动的MapReduce程序
打开YARN的WEB UI页面查看任务情况:http://node1:8088
在这里插入图片描述

ctrl+c退出hive。

验证Hive的数据存储
Hive的数据存储在HDFS的:/user/hive/warehouse中
在这里插入图片描述

HiveServer2

在启动Hive的时候,除了必备的Metastore服务外,有2种方式使用Hive:

  • 方式1:
bin/hive

即Hive的Shell客户端,可以直接写SQL

  • 方式2:
bin/hive --service hiveserver2

后台执行脚本:

nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &

bin/hive --service metastore,启动的是元数据管理服务
bin/hive --service hiveserver2,启动的是HiveServer2服务

HiveServer2是Hive内置的一个ThriftServer服务,提供Thrift端口供其它客户端链接
可以连接ThriftServer的客户端有:

  • Hive内置的 beeline客户端工具(命令行工具)
  • 第三方的图形化SQL工具,如DataGrip、DBeaver、Navicat等

HiveServer2服务

Hive的客户端体系如下
在这里插入图片描述

启动

在hive安装的服务器上,首先启动metastore服务,然后启动hiveserver2服务。

nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
ps -ef|grep 32094
ps -ef|grep 32429

在这里插入图片描述
在这里插入图片描述
hiveserver2监听了10000端口,金对外提供的thrift端口,默认10000

netstat -anp|grep 10000

在这里插入图片描述

Beeline

在node1上使用beeline客户端进行连接访问。需要注意hiveserver2服务启动之后需要稍等一会才可以对外提供服务。
Beeline是JDBC的客户端,通过JDBC协议和Hiveserver2服务进行通信,协议的地址是:jdbc:hive2://node1:10000

/export/server/hive/bin/beeline
! connect jdbc:hive2://node1:10000

输入用户名和密码

show databases;

在这里插入图片描述


http://www.ppmy.cn/news/1009595.html

相关文章

分布式通信:发布订阅介绍

什么是发布订阅 消息的发送者称为发布者&#xff08;Publisher&#xff09;&#xff0c;消息的接收者称为订阅者&#xff08;Subscriber&#xff09;&#xff1b; 发布订阅&#xff08;Publish-Subscribe&#xff09;是一种常用的分布式通信模式&#xff1b; 它基于消息传递实…

【CSS3】CSS3 2D 转换 - scale 缩放 ① ( 使用 scale 设置缩放 | 使用 scale 设置缩放 与 直接设置盒子模型大小 对比 )

文章目录 一、使用 scale 设置缩放二、使用 scale 设置缩放 与 直接设置盒子模型大小 对比三、代码示例1、代码示例 - 设置两个参数代表宽高缩放2、代码示例 - 设置 1 个参数代表宽高缩放 一、使用 scale 设置缩放 在 CSS3 中的 2D 转换 中 , 可以使用 scale 样式 , 设置 盒子模…

我的创作5周年纪念日

机缘 CSDN在 SEO 方面做得很好。所以容易接触到。 然后就尝试使用了。没想到已经5年了。 收获 写blog其实是对知识的总结&#xff0c;能让自己更好的分享交流&#xff0c;让自己能和其他技术者一起交流迭代&#xff0c;并且把技术内容不断做好&#xff0c;让更多人通过技术…

【分布式流控组件 Sentinel 快速入门】——图文详解操作流程

&#x1f4a7; 分布式流控组件 S e n t i n e l 快速入门 \color{#FF1493}{分布式流控组件 Sentinel 快速入门} 分布式流控组件Sentinel快速入门&#x1f4a7; &#x1f337; 仰望天空&#xff0c;妳我亦是行人.✨ &#x1f984; 个人主页——微风撞见云的博客&#…

《Java面向对象程序设计》学习笔记——第 5 章 继承与接口

​专栏&#xff1a;《Java面向对象程序设计》学习笔记 第 5 章 类与对象 5.1 子类与父类 有新类继承一般类视频讲解的状态和行为&#xff0c;并根据需要增加新的状态和行为。 由继承得到的类称为子类&#xff0c;被继承的类称为父类&#xff08;超类&#xff09;。 Java 不…

Spark官方调优三部曲之二:内存调优

前言 这里再次强调一遍,spark性能调优最重要的只有两个: 数据序列化内存调优上一篇博客已经详细介绍了数据序列化性能调优,本文主要针对内存调优进行讲解。 说白了就是减少数据对内存的占用 内存调优概述 调整内存使用时有三个考虑因素:对象使用的内存量(您可能希望整个…

原型链污染是什么

__proto__ 一个Foo类实例化出来的foo对象&#xff0c;可以通过foo.__proto__属性来访问Foo类的原型&#xff0c;也就是说&#xff1a; foo.__proto__ Foo.prototype 对象 构造函数 所以&#xff0c;总结一下&#xff1a; prototype是一个类的属性&#xff0c;所有…

java+python企业会议在线办公微信小程序 ia505

一、小程序端功能 该部分内容提供员工注册、员工资料修改、通知公告、部门信息、会议记录等等功能。 二、管理员管理功能 该部分内容包含了首页、个人中心、通知公告管理、员工管理、部门信息管理、职位信息管理、会议记录管理、待办事项管理、工资信息管理、留言板管理、系统管…