Spark大数据处理讲课笔记3.5 RDD持久化机制

news/2024/12/29 5:26:20/

文章目录

  • 零、本讲学习目标
  • 一、RDD持久化
    • (一)引入持久化的必要性
    • (二)案例演示持久化操作
      • 1、RDD的依赖关系图
      • 2、不采用持久化操作
      • 3、采用持久化操作
  • 二、存储级别
    • (一)持久化方法的参数
    • (二)Spark RDD存储级别表
    • (三)如何选择存储级别
    • (四)persist()与cache()的关系
    • (五)案例演示设置存储级别
  • 三、利用Spark WebUI查看缓存
    • (一)创建RDD并标记为持久化
    • (二)Spark WebUI查看RDD存储信息
    • (三)将RDD从缓存中删除

零、本讲学习目标

  1. 理解RDD持久化的必要性
  2. 了解RDD的存储级别
  3. 学会如何查看RDD缓存

一、RDD持久化

(一)引入持久化的必要性

  • Spark中的RDD是懒加载的,只有当遇到行动算子时才会从头计算所有RDD,而且当同一个RDD被多次使用时,每次都需要重新计算一遍,这样会严重增加消耗。为了避免重复计算同一个RDD,可以将RDD进行持久化。
  • Spark中重要的功能之一是可以将某个RDD中的数据保存到内存或者磁盘中,每次需要对这个RDD进行算子操作时,可以直接从内存或磁盘中取出该RDD的持久化数据,而不需要从头计算才能得到这个RDD。

(二)案例演示持久化操作

1、RDD的依赖关系图

  • 读取文件,进行一系列操作,有多个RDD,如下图所示。
    在这里插入图片描述

2、不采用持久化操作

  • 在上图中,对RDD3进行了两次算子操作,分别生成了RDD4和RDD5。若RDD3没有持久化保存,则每次对RDD3进行操作时都需要从textFile()开始计算,将文件数据转化为RDD1,再转化为RDD2,最终才得到RDD3。

  • 查看要操作的HDFS文件
    在这里插入图片描述

  • 以集群模式启动Spark Shell
    在这里插入图片描述

  • 按照图示进行操作,得RDD4和RDD5
    在这里插入图片描述

  • 查看RDD4内容,会从RDD1到RDD2到RDD3到RDD4跑一趟
    在这里插入图片描述

  • 显示RDD5内容,也会从RDD1到RDD2到RDD3到RDD5跑一趟
    在这里插入图片描述

3、采用持久化操作

  • 可以在RDD上使用persist()cache()方法来标记要持久化的RDD(cache()方法实际上底层调用的是persist()方法)。在第一次行动操作时将对数据进行计算,并缓存在节点的内存中。Spark的缓存是容错的:如果缓存的RDD的任何分区丢失,Spark就会按照该RDD原来的转换过程自动重新计算并缓存。

  • 计算到RDD3时,标记持久化
    在这里插入图片描述

  • 计算RDD4,就是基于RDD3缓存的数据开始计算,不用从头到尾跑一趟
    在这里插入图片描述

  • 计算RDD5,就是基于RDD3缓存的数据开始计算,不用从头到尾跑一趟
    在这里插入图片描述

二、存储级别

(一)持久化方法的参数

  • 利用RDD的persist()方法实现持久化,向persist()方法中传入一个StorageLevel对象指定存储级别。每个持久化的RDD都可以使用不同的存储级别存储,默认的存储级别是StorageLevel.MEMORY_ONLY

(二)Spark RDD存储级别表

  • Spark RDD有七种存储级别
存储级别说明
MEMORY_ONLY将RDD存储为JVM中的反序列化Java对象。如果内存不够,部分分区就不会被缓存,并且在每次需要这些分区的时候都会被动态地重新计算。此为默认级别。
MEMORY_AND_DISK将RDD存储为JVM中的反序列化Java对象。如果内存不够,就将未缓存的分区存储在磁盘上,并在需要这些分区时从磁盘读取。
MEMORY_ONLY_SER将RDD存储为序列化的Java对象(每个分区一个字节数组)。这通常比反序列化对象更节省空间,特别是在使用快速序列化时,但读取时会增加 CPU负担。
MEMORY_AND_DISK_SER类似于MEMORY_ONLY_SER,但是溢出的分区将写到磁盘,而不是每次需要对其动态地重新计算。
DISK_ONLY只在磁盘上存储RDD分区。
MEMORY_ONLY_2与MEMORY_ONLY 相同,只是每个持久化的分区都会复制一份副本,存储在其他节点上。这种机制主要用于容错,一旦持久化数据丢失,可以使用副本数据,而不需要重新计算。
MEMORY_AND_DISK_2与MEMORY_AND_DISK相同,只是每个持久化的分区都会复制一份副本,存储在其他节点上。这种机制主要用于容错,一旦持久化数据丢失,可以使用副本数据,而不需要重新计算。
  • 在Spark的Shuffle操作(例如reduceByKey()中,即使用户没有使用persist()方法,也会自动保存一些中间数据。这样做是为了避免在节点洗牌的过程中失败时重新计算整个输入。如果想多次使用某个RDD,那么强烈建议在该RDD上调用persist()方法。

(三)如何选择存储级别

  • 选择原则:权衡内存使用率和CPU效率
  • 如果RDD存储在内存中不会发生溢出,那么优先使用默认存储级别(MEMORY_ONLY),该级别会最大程度发挥CPU的性能,使在RDD上的操作以最快的速度运行。
  • 如果RDD存储在内存中会发生溢出,那么使用MEMORY_ONLY_SER并选择一个快速序列化库将对象序列化,以节省空间,访问速度仍然相当快。
  • 除非计算RDD的代价非常大,或者该RDD过滤了大量数据,否则不要将溢出的数据写入磁盘,因为重新计算分区的速度可能与从磁盘读取分区一样快。
  • 如果希望在服务器出故障时能够快速恢复,那么可以使用多副本存储级别MEMORY_ONLY_2或MEMORY_AND_DISK_2。该存储级别在数据丢失后允许在RDD上继续运行任务,而不必等待重新计算丢失的分区。其他存储级别在发生数据丢失后,需要重新计算丢失的分区。

(四)persist()与cache()的关系

  • 查看两个方法的源码
/**                                                                                           * 在第一次行动操作时持久化RDD,并设置存储级别,当RDD从来没有设置过存储级别时才能使用该方法                                           */                                                                                          
def persist(newLevel: StorageLevel): this.type = {                                            if (isLocallyCheckpointed) {                                                                // 如果之前已将该RDD设置为localCheckpoint,就覆盖之前的存储级别                                                persist(LocalRDDCheckpointData.transformStorageLevel(newLevel), allowOverride = true)     } else {                                                                                    persist(newLevel, allowOverride = false)                                                  }                                                                                           
}                                                                                             
/**                                                                                           * 持久化RDD,使用默认存储级别(MEMORY_ONLY)                                                              */                                                                                          
def persist(): this.type = persist(StorageLevel.MEMORY_ONLY)                                  /**                                                                                           * 持久化RDD,使用默认存储级别(MEMORY_ONLY)                                                              */                                                                                          
def cache(): this.type = persist()                                                            
  • 从上述代码可以看出,cache()方法调用了无参的persist()方法,两者的默认存储级别都为MEMORY_ONLY,但cache()方法不可更改存储级别,而persist()方法可以通过参数自定义存储级别

(五)案例演示设置存储级别

  • net.huawei.rdd根包里创建day05子包,然后在子包里创建SetStorageLevel对象
    在这里插入图片描述
package net.huawei.rdd.day05import org.apache.log4j.{Level, Logger}
import org.apache.spark.storage.StorageLevel
import org.apache.spark.{SparkConf, SparkContext}/*** 功能:设置存储级别* 作者:华卫* 日期:2023年05月06日*/
object SetStorageLevel {def main(args: Array[String]): Unit = {// 创建Spark配置对象val conf = new SparkConf().setAppName("SetStorageLevel") // 设置应用名称.setMaster("local[*]") // 设置主节点位置(本地调试)// 基于Spark配置对象创建Spark容器val sc = new SparkContext(conf)// 去除Spark运行信息Logger.getLogger("org").setLevel(Level.OFF)Logger.getLogger("com").setLevel(Level.OFF)System.setProperty("spark.ui.showConsoleProgress", "false")Logger.getRootLogger().setLevel(Level.OFF)// 读取HDFS文件,得到rddval rdd = sc.textFile("hdfs://master:9000/park/words.txt")// 将rdd标记为持久化,采用默认存储级别 - StorageLevel.MEMORY_ONLYrdd.persist() // 无参持久化方法// 对rdd做扁平化映射,得到rdd1val rdd1 = rdd.flatMap(_.split(" "))// 将rdd1持久化到磁盘rdd1.persist(StorageLevel.DISK_ONLY)// 将rdd1映射成二元组,得到rdd2val rdd2 = rdd1.map((_, 1))// 将rdd2持久化到内存,溢出的数据持久化到磁盘rdd2.persist(StorageLevel.MEMORY_AND_DISK)// 第一次行动算子,对标记为持久化的RDD进行不同级别的持久化操作println("元素个数:" + rdd2.count)// 第二次行动算子,直接利用rdd2的持久化数据进行操作,无须从头进行计算rdd2.collect.foreach(println)}
}
  • 运行程序,查看结果
    在这里插入图片描述

三、利用Spark WebUI查看缓存

  • 最好重启Spark Shell
    在这里插入图片描述

(一)创建RDD并标记为持久化

  • 执行命令:val rdd = sc.parallelize(List(56, 67, 32, 89, 90, 66, 100))
    在这里插入图片描述

(二)Spark WebUI查看RDD存储信息

  • 浏览器中访问Spark Shell的WebUI http://master:4040/storage/查看RDD存储信息,可以看到存储信息为空
    在这里插入图片描述

  • 执行命令:rdd.collect,收集RDD数据
    在这里插入图片描述

  • 刷新WebUI,发现出现了一个ParallelCollectionRDD的存储信息,该RDD的存储级别为MEMORY,持久化的分区为8,完全存储于内存中。
    在这里插入图片描述

  • 单击ParallelCollectionRDD超链接,可以查看该RDD的详细存储信息
    在这里插入图片描述

  • 上述操作说明,调用RDD的persist()方法只是将该RDD标记为持久化,当执行行动操作时才会对标记为持久化的RDD进行持久化操作。

  • 执行以下命令,创建rdd2,并将rdd2持久化到磁盘
    在这里插入图片描述

  • 刷新上述WebUI,发现多了一个MapPartitionsRDD的存储信息,该RDD的存储级别为DISK,持久化的分区为8,完全存储于磁盘中。
    在这里插入图片描述

(三)将RDD从缓存中删除

  • Spark会自动监视每个节点上的缓存使用情况,并以最近最少使用的方式从缓存中删除旧的分区数据。如果希望手动删除RDD,而不是等待该RDD被Spark自动从缓存中删除,那么可以使用RDD的unpersist()方法。

  • 执行命令:rdd.unpersist(),将rdd(ParallelCollectionRDD)从缓存中删除
    在这里插入图片描述

  • 刷新上述WebUI,发现只剩下了MapPartitionsRDDParallelCollectionRDD已被移除。
    在这里插入图片描述


http://www.ppmy.cn/news/69496.html

相关文章

android log的使用

现在在分析一个android netd的问题,只要一开启热点, for (String ifname : added) {try {Log.d(TAG, "TetheredState, processMessage CMD_TETHER_CONNECTION_CHANGED, add mIfaceName " mIfaceName " ifname " ifname );mNetd.…

etcd的Watch原理

在 Kubernetes 中,各种各样的控制器实现了 Deployment、StatefulSet、Job 等功能强大的 Workload。控制器的核心思想是监听、比较资源实际状态与期望状态是否一致,若不一致则进行协调工作,使其最终一致。 那么当你修改一个 Deployment 的镜像…

蛋糕烘焙店小程序开发 让生活多点甜

蛋糕甜品因为较高的颜值、香甜的口感深受大众喜欢,当我们路过一家蛋糕烘焙店的时候,飘香的味道让我们流连忘返。但是互联网时代,各个行业都在转型,蛋糕烘焙店也需要由传统线下店面向线上线下结合的方式转变,以求摆脱区…

LeetCode 63 不同路径 II

题目: 一个机器人位于一个 m x n 网格的左上角 (起始点在下图中标记为 “Start” )。机器人每次只能向下或者向右移动一步。机器人试图达到网格的右下角(在下图中标记为 “Finish”)。现在考虑网格中有障碍物。那么从左…

Golang笔记:使用os.Args和flag包编写命令行界面(CLIs)

文章目录 目的os.ArgsflagFlagSet总结 目的 命令行界面(Command-line Interfaces)是比较常用的一种软件形式。对于大部分开发运维人员来说很多时候CLIs可能比图形界面更加方便。软件开发时也经常会有需要开发命令行界面形式软件的情况,使用G…

Highcharts Core Crack

Highcharts Core Crack 添加了新的“x轴交叉”和“y轴交叉”选项,使创建数学绘图的轴布局变得更容易。 添加了新的“series.legendSymbol”选项。 Highcharts是业界领先的JavaScript图表库。Highcharts被数以万计的开发人员和全球100家最大公司中超过80%的公司使用。…

Leetcode 第 345 场周赛 Problem D 统计完全连通分量的数量

Leetcode 第 345 场周赛 Problem D 统计完全连通分量的数量题目 给你一个整数 n 。现有一个包含 n 个顶点的 无向 图,顶点按从 0 到 n - 1 编号。给你一个二维整数数组 edges 其中 edges[i] [ai, bi] 表示顶点 ai 和 bi 之间存在一条 无向 边。返回图中 完全连通分…

大咖齐聚CCIG论坛——文档图像智能分析的产业前沿

目录 1 文档图像智能分析技术2 大咖齐聚CCIG20233 议题介绍3.1 从模式识别到类脑研究3.2 视觉-语言预训练模型演进及应用3.3 篡改文本图像的生成和检测3.4 智能文档处理在工业界的应用与挑战 4 观看入口&议程 1 文档图像智能分析技术 文档图像智能分析是指使用计算机视觉和…