Hadoop - 安装

ops/2024/10/9 7:18:43/

文章目录

    • 关于 Hadoop
        • 架构变迁 1.0 --> 2.0 --> 3.0
    • 安装配置
      • 安装
      • 配置环境变量
      • 配置
        • core-site.xml
        • hdfs-site.xml
        • mapped-site.xml
        • yarn-site.xml
        • 配置 hadoop-env
    • 启动/停止 Hadoop 服务
        • 查看 hdfs report


关于 Hadoop

The Apache™ Hadoop® project develops open-source software for reliable, scalable, distributed computing.
The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using simple programming models.
It is designed to scale up from single servers to thousands of machines, each offering local computation and storage. Rather than rely on hardware to deliver high-availability, the library itself is designed to detect and handle failures at the application layer, so delivering a highly-available service on top of a cluster of computers, each of which may be prone to failures.

  • 官网: https://hadoop.apache.org
  • 官方教程: https://hadoop.apache.org/docs/r1.0.4/cn/
  • W3C教程:https://www.w3cschool.cn/hadoop/
  • 菜鸟教程:https://www.runoob.com/w3cnote/hadoop-tutorial.html

发行版本

  • Apache 开源社区版: https://hadoop.apache.org
  • 商业发行版本
    • Cloudera: https://www.cloudera.com
      Hortonworks 和 Cloudera 合并了

架构变迁 1.0 --> 2.0 --> 3.0


安装配置

官方安装配置:
https://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html


安装

macOS 安装 Hadoop:使用 brew
brew 安装、使用方法可见:https://blog.csdn.net/lovechris00/article/details/121613647

brew install hadoop

如果出现报错:

Error: Cannot install hadoop because conflicting formulae are installed.
yarn: because both install yarn binaries
Please brew unlink yarn before continuing.

根据提示执行命令即可:

brew unlink yarn

安装成功,查看版本

# 查看 hadoop 安装目录
brew info hadoop 

配置环境变量

根据你的环境变量文件,编辑

vim ~/.zshrc
# vim ~/.bash_profile
# Hadoop
export HADOOP_HOME=/usr/local/Cellar/hadoop/3.3.4/libexec
export PATH=$PATH:HADOOP_HOME

使环境变量在当前窗口生效。
你也可以使用 ctrl + tab 新开一个终端窗口。

source ~/.zshrc
# source ~/.bash_profile

配置

cd /usr/local/Cellar/hadoop/3.3.3/libexec/etc/hadoop
ls

修改配置文件


core-site.xml
vim  core-site.xml

进入文件后加入:

<configuration><property><name>fs.defaultFS</name><value>hdfs://localhost:8020</value></property><!--用来指定hadoop运行时产生文件的存放目录  自己创建--><property><name>hadoop.tmp.dir</name><value>file:/usr/local/Cellar/hadoop/tmp</value></property>
</configuration>

hdfs-site.xml

配置副本数

vim  hdfs-site.xml
<configuration><property><name>dfs.replication</name><value>1</value></property><!--不是root用户也可以写文件到hdfs--><property><name>dfs.permissions</name><value>false</value>    <!--关闭防火墙--></property><!--把路径换成本地的name坐在位置--><property><name>dfs.namenode.name.dir</name><value>file:/usr/local/Cellar/hadoop/tmp/dfs/name</value></property><!--在本地新建一个存放hadoop数据的文件夹,然后将路径在这里配置一下--><property><name>dfs.datanode.data.dir</name><value>file:/usr/local/Cellar/hadoop/tmp/dfs/data</value></property>
</configuration> 

mapped-site.xml
vim  mapped-site.xml
 <configuration><property><!--指定mapreduce运行在yarn上--><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapred.job.tracker</name><value>localhost:9010</value></property><!-- 新添加 --><!-- 下面的路径就是你hadoop distribution directory --><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.3/libexec</value></property><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.3/libexec</value></property><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=/usr/local/Cellar/hadoop/3.3.3/libexec</value>
</property></configuration> 

yarn-site.xml
vim   yarn-site.xml
<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>localhost:9000</value></property> <property><name>yarn.scheduler.capacity.maximum-am-resource-percent</name><value>100</value></property>
</configuration> 

hadoopenv_216">配置 hadoop-env

$HADOOOP_HOME/etc/hadoop/hadoop-env.sh 中配置 JAVA_HOME


export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_331.jdk/Contents/Home


启动/停止 Hadoop 服务

初始化 HDFS NameNode

hdfs namenode -format

1、启动

cd  $HADOOP_HOME
./start-dfs.sh 

2、在浏览器中输入url:
http://localhost:9870/dfshealth.html#tab-overview
http://localhost:9870
看到以下界面启动成功

如果打不开这个页面,而且又启动了,需要在hadoop下/etc/hadoop/hadoop-env.sh文件下第52行后面添加下方配置:

cd /usr/local/Cellar/hadoop/3.3.1/libexec/etc
export HADOOP_OPTS="-Djava.library.path=${HADOOP_HOME}/lib/native"

3、停止hadoop服务

./stop-yarn.sh

4、启动yarn服务

cd /usr/local/Cellar/hadoop/3.3.1/libexec/sbin
./start-yarn.sh 

在浏览器中输入 http://localhost:8088/cluster 看到一下界面则启动成功


5、停止yarn服务

./stop-yarn.sh 

查看 hdfs report
hdfs dfsadmin -report

启动 yarn

cd $HADOOP_HOME
../sbin/start-yarn.sh 

浏览器输入 http://localhost:8088,出现下面界面则代表启动成功



http://www.ppmy.cn/ops/14102.html

相关文章

【OpcUA开发笔记 3】Open62541证书登录方式

前言: OpcUA的登录方式有3种,分别是匿名,用户名+密码,证书。其中前两个比较简单,我们就从最复杂的说起,前两个顺带说下也就会了,属于抛砖引玉讲述解决思路,非保姆式教程。 材料:open62541-1.4.0,cmake 3.29.2,openssl 3.3.0.9,visual studio2022,python3.8.6 一、…

云原生Service Mesh服务网格简单介绍

serviceMesh是什么 Service Mesh是一个用于处理服务间通信的基础设施层&#xff0c;旨在实现云原生应用复杂服务拓扑中的可靠请求传递。其基本构成是一组与应用一起部署的轻量级网络代理&#xff0c;这些代理对应用来说是透明的。Service Mesh通过统一的方式来控制和处理服务间…

常用的Git和Linux命令

Git命令&#xff1a; Git是一个分布式版本控制系统&#xff0c;它可以帮助开发者跟踪和管理代码的变化。 git init&#xff1a;初始化一个Git仓库 git clone&#xff1a;克隆一个已有的Git仓库到本地 git add&#xff1a;将当前目录下的修改添加到暂存区 git commit&#xff1…

jenkins流水线学习(工具)

Jenkins特意为了更好使用pipeline&#xff0c;开发了一些工具类&#xff0c;方便我们更好地在step中处理各种需求。 一、Pipeline Utility Steps Pipeline Utility Steps 这是个插件&#xff0c;需要在jenkins插件管理安装。参考来源&#xff1a;Jenkins高级篇之Pipeline方法…

原生小程序自定义vantUI中van-collapse手风琴组件的标题

可以根据官网的提示&#xff1a; Vant Weapp - 轻量、可靠的小程序 UI 组件库 自己做的&#xff1a; <van-collapse accordion value"{{ activeName }}" bind:change"onChange"><van-collapse-item name"{{index}}"><!-- 这是自…

MybatisPlus 常用注解

一、前言 Mybatis-Plus是一个在Mybatis基础上进行增强的ORM框架&#xff0c;提供了许多便捷的注解来简化数据库操作。本文将介绍Mybatis-Plus常用的注解以及它们的使用方法。 二、常用注解 2.1、TableName TableName注解用于指定实体类对应的数据库表名。使用该注解可以省去…

No spring.config.import property has been defined

运行Springcloud项目出现下面错误&#xff1a; Description: No spring.config.import property has been defined Action: Add a spring.config.importnacos: property to your configuration. If configuration is not required add spring.config.importoptional:nac…

CISSP通关学习笔记:共计 9 个章节(已完结)

1. 笔记说明 第 0 章节为开篇介绍&#xff0c;不包括知识点。第 1 - 8 章节为知识点梳理汇总&#xff0c;8 个章节的知识框架关系如下图所示&#xff1a; 2. 笔记目录 「 CISSP学习笔记 」0.开篇「 CISSP学习笔记 」1.安全与风险管理「 CISSP学习笔记 」2.资产安全「 CISSP…