flink环境搭建

devtools/2024/12/23 4:02:37/

 Flink会话模式

1.集群规划:

2. 将flink拖到/opt/so下

3. 将安装包解压到/opt/module下:

tar -zxvf /opt/so/flink-1.15.4-bin-scala_2.12.tgz  -C /opt/module

4. 改个名:mv flink-1.15.4  flink

5. 修改配置文件:cd /opt/module/flink/conf

6. 进入配置文件:vim flink-conf.yaml

   将jobmanager.rpc.address: localhost改为Hadoop001

 1.6之前的只需要改这一个

   jobmanager .bind-host:localhost 改为0.0.0.0设置其它用户也可以访问

   taskmanager.bind-host: localhost改为0.0.0.0

   taskmanager.host:localhost改为hadoop001

   rest.address: localh  改为hadoop001

   rest.bind-address: localhost  改为0.0.0.0

 7. 进入workers:vim  workers

  Hadoop001

  Hadoop002

  Hadoop003

8. 进入masters:vim  masters

加入:hadoop001:8081

9. 分发:scp -r  /opt/module/flink  root@hadoop002:/opt/module/flink

scp  -r  /opt/module/flink  root@hadoop003:/opt/module/fink

10. 到hadoop002上操作:

cd  /opt/module/flink/conf

vim  flink-conf.yaml

将taskmanager.host:hadoop001改为hadoop002  #小弟的用户名和节点用户名保持一致

11. 到hadoop003上操作:

cd  /opt/module/flink/conf

vim  flink-conf.yaml

将taskmanager.host:hadoop001改为hadoop003 

12. 进入bin目录下启动: bin/start-cluster.sh

Hadoop001

Hadoop002

Hadoop003

http://192.168.10.234:8081

单机模式

  1. 解压:tar -zxvf flink-1.15.4-bin-scala_2.12.tgz  -C /opt/zz  -C /opt/zz
  2. Cd  /opt/zz
  3. 改名:mv flink-1.15.4-bin-scala_2.12.tgz  flink
  4. 启动:cd /opt/zz/flink/bin

./start-cluster.sh

1. 在 link-confyaml文件中还以对集群中的JobManager 和 TaskManager 组件进行优化配置,主要配置项如下:“

2.  jobmanagermemory,processsize: 对JbManager进程可使用到的全部内存进行配置包括JVM元空间和其他开销,默认为 1600M,可以根据集群规模进行适当调整。

3.  “taskmanager.memoryprocess.size: 对 TaskManager 进程可使用到的全部内存进行配置包括JVM元空间和其他开销,默认为 1728M,可以根据集群规模进行适当调整。

4.  “taskmanagernumberOfTaskSlots: 对每个 TaskManager 能够分配的 Slot 数量进行配置默认为1,可根据TaskManager 所在的机器能够提供给 Flink的CPU数量决定。所谓Slot就是 TaskManager 中具体运行一个任务所分配的计算资源。

5.  “parallelism.default: Flink 任务执行的并行度,默认为1。优先级低于代码中进行的并包括JVM元空间和其他开销,默认为 1728M,可以根据集群规模进行适当调整。

6.  “taskmanagernumberOfTaskSlots: 对每个 TaskManager 能够分配的 Slot 数量进行配置默认为 1,可根据TaskManager 所在的机器能够提供给 Flink的CPU数量决定。所谓Slot 就是 TaskManager 中具体运行一个任务所分配的计算资源。

7. “parallelism.default: Flink 任务执行的并行度,默认为 1。优先级低于代码中进行的并行度配置和任务提交时使用参数指定的并行度量。

Standalone-HA集群部署:

  1. 将解压包仍到/opt/so下
  2. 解压:tar -zxvf /opt/so/flink-1.15.4-bin-scala_2.12.tgz  -C /opt/module
  3. 进入bin目录下停止集群:./stop-cluster.sh
  4. 打开浏览器:http://192.168.10.234:8081
  5. Hadoop捆绑包下载地址:

Downloads | Apache Flink

  1. 将hadoop捆绑包拖入/opt/so下
  2. 复制一份到FLINK_HOME/lib下:

Cp  /opt/so/ flink-shaded-hadoop-2-uber-2.8.3-10.0.jar  /opt/module/flink/lib

  1. 配置环境变量:vim  /etc/profile

  1. 环境变量生效:source  /etc/profile
  2. 配置文件:vim flink-conf.yaml

  1. 配置masters:vim  masters

  1. 配置workers:vim  workers

  1. flink下创建tmp目录:mkdir  tmp

Cd tmp

Mkdir  zookeeper

  1. 配置zoo.cfg:vim zoo.cfg

  1. 分发:

Scp  -r /opt/module/flink  root@hadoop003:/opt/module/flink

Scp  -r /opt/module/flink  root@hadoop002:/opt/module/flink

  1. 进入flink-conf.yaml

修改rpc的ip

  1. 进入bin:/opt/module/flink/bin
  2. 启动:./start-cluster.sh

Flink on yarn

进入hadoop下的yarn-site.xml

<!--是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->

        <property>

                <name>yarn.nodemanager.pmem-check-enabled</name>

                <value>false</value>

        </property>

        <!--是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true -->

        <property>

                <name>yarn.nodemanager.vmem-check-enabled</name>

                <value>false</value>

        </property>

在环境变量中添加:

export HADOOP_CLASSPATH=`hadoop classpath`

export HADOOP_CONF_DIR=/opt/module/hadoop/etc/hadoop

生效一下:source /etc/profile

   分发一下:

   scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml  root@hadoop2:/opt/module/hadoop/etc/hadoop/ya

rn-site.xml

scp -r /opt/module/hadoop/etc/hadoop/yarn-site.xml  root@hadoop3/opt/module/hadoop/etc/hadoop/ya

rn-site.xml

scp -r /etc/profile root@hadoop2:/etc/profile

scp -r /etc/profile root@hadoop3:/etc/profile

在提交Job前必须要开始yarn-session
bin/yarn-session.sh -n 2 -tm 800 -s 1 -d

flink run -m yarn-cluster -p 2 -yjm 2G -ytm 2G $FLINK_HOME/examples/batch/WordCount.jar

提交一个任务

flink解压包:点击下载

提取码:1771


http://www.ppmy.cn/devtools/97860.html

相关文章

win10蓝牙只能发送,无法接收

给win10升了级&#xff0c;到22H2&#xff0c;蓝牙出了问题 以前接收&#xff0c;就是默认直接就可以接收。现在只能发送&#xff0c;无法接收。 在网上找了很多办法都没奏效&#xff0c;目前的方法是&#xff0c; 每次接收&#xff0c;都要操作一次&#xff0c;而不是自动接…

macOS symbol(s) not found for architecture arm64错误原因总结

背景 环境&#xff1a; macOS 14MacBook Pro M3 正文 在macOS上进行C开发&#xff0c;有时会遇到以下报错&#xff1a; Undefined symbols for architecture arm64:"CameraRawWidget::eventFilter(QObject*, QEvent*)", referenced from:vtable for CameraRawWi…

探索Ruby在物联网世界的无限可能:智能连接与创新应用

标题&#xff1a; 探索Ruby在物联网世界的无限可能&#xff1a;智能连接与创新应用 摘要&#xff1a; 物联网&#xff08;IoT&#xff09;正在迅速改变我们与物理世界的互动方式。Ruby&#xff0c;作为一种灵活且富有表现力的编程语言&#xff0c;为物联网应用提供了独特的解决…

Day29 不同主机之间的网络通信学习

IPC 进程间通信方式 共享内存 //最高效的进程间通信方式 共享内存: 1.是一块&#xff0c;内核预留的空间 2.最高效的通信方式 //避免了用户空间 到 内核空间的数据拷贝 IPC通信方式 ---操作流程类似的 操作: system v &#xff1a; …

linux被植入木马排查思路

linux被植入木马排查思路 一、是否侵入检查 1&#xff09;检查系统登录日志 last命令 2&#xff09;检查系统用户 1、检查是否有异常用户 cat /etc/passwd 2、查看是否产生了新用户、uid和gid为0的用户 grep "0" /etc/passwd 3、查看passwd的修改时间&#xf…

设计模式-访问器模式

概述 访问器模式是一种常见的的设计模式&#xff0c;主要是设计封装对对象的访问&#xff0c;可以将对对象的操作封装在一个方法中&#xff0c;灵活的控制对变量的修改&#xff0c;处理对应的逻辑&#xff0c;在C#中有对应的getset访问器&#xff0c;可以封装对属性的访问和写…

新媒体智能化与定制开发 AI 智能名片小程序在工业 4.0 中的作用

摘要&#xff1a;本文探讨了新媒体作为客体所具有的智能以及在工业 4.0 进程中的重要性。分析了人赋予新媒体的四个方面智能&#xff0c;包括感知智能、运算智能、认知智能和智慧行为。同时&#xff0c;结合定制开发 AI 智能名片小程序这一具体案例&#xff0c;阐述了新媒体在工…

你是如何克服编程学习中的挫折感的?

心态调整&#xff0c;学习方法&#xff0c;成功经验 引言 学习编程是一项具有挑战性的任务&#xff0c;因为它要求我们具备逻辑思维、耐心和大量的实践。对很多人来说&#xff0c;编程学习中的挫折感是不可避免的。然而&#xff0c;通过调整自己的心态&#xff0c;采用正确的…