基于伪分布式模式部署Hadoop集群

ops/2025/1/7 16:31:00/

1.上传Hadoop安装包

在/export/software目录下使用rz命令上传Hadoop安装包

2.创建目录

在/export/servers目录下创建wfb-hadoop目录,用于存放Hadoop的安装目录,命令如下:

mkdir -p /export/servers/wfb-hadoop

3.安装Hadoop

        1)将Hadoop安装到/export/servers/wfb-hadoop目录,命令如下:

        tar -zxvf /export/software/Hadoop-3.3.4.tar.gz -C /export/servers/wfb-hadoop

        2)安装完成之后,进入到安装目录/export/servers/wfb-hadoop/Hadoop-3.3.4,并执行ll命令查            看Hadoop安装目录中的所有文件

4.验证Hadoop是否安装成功

在安装目录执行bin/Hadoop version命令查看Hadoop版本号,来验证是否安装成功

5.修改Hadoop配置文件

进入安装目录下的/etc/hadoop目录

        1)使用vi Hadoop-env.sh命令进行编辑,在该文件中添加如下内容:

        export JAVA_HOME=/export/servers/jdk1.8.0_171

        export HDFS_NAMENODE_USER=root

        export HDFS_DATANODE_USER=root

        export HDFS_SECONDARYNAMENODE_USER=root

        export YARN_RESOURCEMANAGER_USER=root

        export YARN_NODEMANAGER_USER=root

        2)执行vi core-site.xml命令进行编辑,在<configuration>标签中添加如下内容:

<property>

                <name>fs.defaultFS</name>

                <value>hdfs://hadoop1:9000</value>

        </property>

        <property>

                <name>hadoop.tmp.dir</name>

                <value>/export/data/hadoop-wfb-3.3.4</value>

        </property>

        <property>

                <name>hadoop.http.staticuser.user</name>

                <value>root</value>

        </property>

        <property>

                <name>hadoop.proxyuser.root.hosts</name>

                <value>*</value>

        </property>

        <property>

                <name>hadoop.proxyuser.root.groups</name>

                <value>*</value>

        </property>

        <property>

                <name>fs.trash.interval</name>

                <value>1440</value>

        </property>

        3)执行vi hdfs-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

      <name>dfs.replication</name>

      <value>1</value>

</property>

<property>

      <name>dfs.namenode.secondary.http-address</name>

      <value>hadoop1:9868</value>
  </property>

        4)执行vi mapred-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

</property>

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop1:10020</value>

</property>

<property>

                <name>mapreduce.jobhistory.webapp.address</name>

<value>hadoop1:19888</value>

</property>

<property>

<name>yarn.app.mapreduce.am.env</name>

                <value>HADOOP_MAPRED_HOME=/export/servers/wfb-hadoop/hadoop-3.3.4</value>

</property>

<property>

<name>marpreduce.map.env</name>

                <value>HADOOP_MAPRED_HOME=/export/servers/wfb_hadoop/hadoop-3.3.4</value>

        </property>

<property>

<name>mapreduce.reduce.env</name>

                <value>HADOOP_MAPRED_HOME=/export/servers/wfb-hadoop/hadoop-3.3.4</value>
</property> 

        5)执行vi yarn-site.xml命令进行编辑,在文件的<configuration>标签中添加如下内容:

<property>

<name>yarn.resorcemanager.hostname</name>

<value>hadoop1</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.nodemanager.pmem-check-enabled</name>

<value>false</value>

</property>

<property>

<name>yarn.nodemanager.vmem-check-enabled</name>

<value>false</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log.server.url</name>

                <value>http://hadoop1:19888/jobhistory/logs</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

        6)在安装目录虚下的/etc/hadoop目录执行vi workers命令,配置Hadoop从节点运行的服务器,将workers文件的默认内容改为hadoop1

6.格式化HDFS文件系统

在安装目录下执行如下命令,进行HDFS格式化(我已经进行格式化了,不再展示命令执行结果),出现successfully formatted说明格式化成功

bin/hdfs namenode -format

7.启动Hadoop

在安装目录下执行下列命令,启动HDFS和YARN

sbin/start-dfs.sh

sbin/start-yarn.sh

8.查看Hadoop运行状态

使用jps命令查看HDFS和YARN的相关服务


http://www.ppmy.cn/ops/147857.html

相关文章

基于 GitHub Actions 的流程自动化实践

文章目录 摘要引言自动化协作流程的核心功能协作流程中的常见问题GitHub Actions 和 Bot 的自动化能力 基于 GitHub Actions 的协作流程自动化自动标记 IssuePull Request 检查和模板验证合并冲突提醒 示例代码详解QA 环节Q1: 是否可以结合外部平台&#xff08;如 Slack&#x…

计算机网络第五章--运输层--课后习题

1.连续ARQ协议 【5-21】 假定使用连续ARQ 协议&#xff0c;发送窗口大小是3,而序号范围是[0,15],而传输媒 体保证在接收方能够按序收到分组。在某一时刻&#xff0c;在接收方&#xff0c;下一个期望收到的 序号是5。试问&#xff1a; (1)在发送方的发送窗口中可能出现的序号组…

【深度学习】yolov8使用的一个小warning

PS D:\code\JerseyNumberTrackerStrategy> & D:/Users/51442/anaconda3/python.exe d:/code/JerseyNumberTrackerStrategy/classes/Yolov8Detector.py WARNING ⚠️ imgsz[760, 2306] must be multiple of max stride 32, updating to [768, 2336] 0: 768x256 1 person…

[网络安全]DVWA之XSS(Reflected)攻击姿势及解题详析合集

XSS(Reflected)-low level 源代码 <?phpheader ("X-XSS-Protection: 0");// Is there any input? if( array_key_exists( "name", $_GET ) && $_GET[ name ] ! NULL ) {// Feedback for end userecho <pre>Hello . $_GET[ name ] . …

vulhub earth靶场

1.扫描靶机ip 2.扫描端口 3. 访问三个端口&#xff0c;分别访问80和443端口&#xff0c;80端口400错误&#xff0c;443端口也没什么用&#xff0c;回到80端口&#xff0c;4可以绑定域名&#xff0c;然后访问域名试试。 4. 扫描目录 5.访问目录 6.进行解密得到密码为earthclimat…

EasyExcel数据的导入导出

1.easyExcel简介 EasyExcel是一个基于Java的、快速、简洁、解决大文件内存溢出的Excel处理工具。 他能让你在不用考虑性能、内存的等因素的情况下&#xff0c;快速完成Excel的读、写等功能。 EasyExcel 的主要特点如下&#xff1a; 1、高性能&#xff1a;EasyExcel 采用了异…

深入理解spring 自动注入

深入理解 Spring 注入&#xff1a;差别、用法与原理 Spring 是 Java 开发中非常流行的框架&#xff0c;而依赖注入 (Dependency Injection, DI) 是其核心特性之一。本文将从以下几个方面深入探讨 Spring 注入&#xff1a;注入方式的差别、适用场景与用法&#xff0c;以及其背后…

使用SSH建立内网穿透,能够访问内网的web服务器

搞了一个晚上&#xff0c;终于建立了一个内网穿透。和AI配合&#xff0c;还是得自己思考&#xff0c;AI配合才能搞定&#xff0c;不思考只依赖AI也不行。内网服务器只是简单地使用了python -m http.server 8899&#xff0c;但是对于Gradio建立的服务器好像不行&#xff0c;会出…