当前位置: 首页 > news >正文

spark- core

1、sortByKey

函数签名

def sortByKey(ascending: Boolean = true, numPartitions: Int = self.partitions.length)

: RDD[(K, V)]

函数说明

在一个(K,V)的 RDD 上调用,K 必须实现 Ordered 接口(特质),返回一个按照 key 进行排序

2、join

函数签名

def join[W](other: RDD[(K, W)]): RDD[(K, (V, W))]

函数说明

在类型为(K,V)和(K,W)的 RDD 上调用,返回一个相同 key 对应的所有元素连接在一起的(K,(V,W))的 RDD

3、leftOuterJoin

函数签名

def leftOuterJoin[W](other: RDD[(K, W)]): RDD[(K, (V, Option[W]))]

函数说明

类似于 SQL 语句的左外连接

4、cogroup

函数签名

def cogroup[W](other: RDD[(K, W)]): RDD[(K, (Iterable[V], Iterable[W]))]

函数说明

在类型为(K,V)和(K,W)的 RDD 上调用,返回一个(K,(Iterable<V>,Iterable<W>))类型的 RDD

RDD行动算子:

行动算子就是会触发action的算子,触发action的含义就是真正的计算数据。

1、 reduce

函数签名

def reduce(f: (T, T) => T): T

函数说明

聚集 RDD 中的所有元素,先聚合分区内数据,再聚合分区间数据

2、collect

函数签名

def collect(): Array[T]

函数说明

在驱动程序中,以数组 Array 的形式返回数据集的所有元素

3、foreach

函数签名

def foreach(f: T => Unit): Unit = withScope {

val cleanF = sc.clean(f) 

sc.runJob(this, (iter: Iterator[T]) => iter.foreach(cleanF)) 

}

函数说明

分布式遍历 RDD 中的每一个元素,调用指定函数

4、count

函数签名

def count(): Long

函数说明

返回 RDD 中元素的个数

5、first

函数签名

def first(): T

函数说明

返回 RDD 中的第一个元素

6、take

函数签名

def take(num: Int): Array[T]

函数说明

返回一个由 RDD 的前 n 个元素组成的数组

7、takeOrdered

函数签名

def takeOrdered(num: Int)(implicit ord: Ordering[T]): Array[T]

函数说明

返回该 RDD 排序后的前 n 个元素组成的数组

8、aggregate

函数签名

def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U

函数说明

分区的数据通过初始值和分区内的数据进行聚合,然后再和初始值进行分区间的数据聚合

9、fold

函数签名

def fold(zeroValue: T)(op: (T, T) => T): T

函数说明

折叠操作,aggregate 的简化版操作

10、 countByKey

函数签名

def countByKey(): Map[K, Long]

函数说明

统计每种 key 的个数

11、save 相关算子

函数签名

def saveAsTextFile(path: String): Unit

def saveAsObjectFile(path: String): Unit

def saveAsSequenceFile(

path: String,

codec: Option[Class[_ <: CompressionCodec]] = None): Unit 

函数说明

将数据保存到不同格式的文件中

累加器

实现原理:累加器用来把 Executor 端变量信息聚合到 Driver 端。在 Driver 程序中定义的变量,在Executor 端的每个 Task 都会得到这个变量的一份新的副本,每个 task 更新这些副本的值后,传回 Driver 端进行 merge。

广播变量

实现原理:广播变量用来高效分发较大的对象。向所有工作节点发送一个较大的只读值,以供一个或多个 Spark 操作使用。比如,如果你的应用需要向所有节点发送一个较大的只读查询表,广播变量用起来都很顺手。在多个并行操作中使用同一个变量,但是 Spark 会为每个任务分别发送。

相关文章:

  • 全域数字化:从“智慧城市”到“数字生命体”的进化之路
  • 如何避免无效成本拖垮项目
  • JVM高阶架构:并发模型×黑科技×未来趋势解析
  • 介绍一下 ChibiOS
  • 用excel做九乘九乘法表
  • Linux网络之DNS域名解析服务
  • 使用POCO库进行ZIP压缩和解压
  • VSCode CLine 插件自定义配置使用 Claude 3.7 模型进行 AI 开发
  • 深入理解 Linux PATH 环境变量:配置与优化!!!
  • Crossmint 与 Walrus 合作,将协议集成至其跨链铸造 API 中
  • WPF ObjectDataProvider
  • Dify插件安装与使用教程
  • 基于SSM框架的房屋租赁小程序开发与实现
  • OpengGL教程(七)---摄像机
  • 在Ubuntu服务器上安装Docker(支持Ubuntu 20.04/22.04等版本):
  • 道路运输安全员岗位事项有哪些?
  • HBuilderX中uni-app打包Android(apk)全流程超详细打包
  • 建设“大数据智慧招商平台”,助力园区突破招商瓶颈!
  • 2025 年“认证杯”数学中国数学建模网络挑战赛 C题 化工厂生产流程的预测和控制
  • 03--Deepseek服务器部署与cjson解析
  • 如何提升网站点击量/手机百度最新正版下载
  • 山东网站建设开发外包/上海百网优seo优化公司
  • 一件代发供应链/网站优化的意义
  • 营销型网站建设方案演讲ppt/软文代写平台
  • 宁波搭建网站/优化资讯
  • 网站开发建设费用包括那些/拼多多女装关键词排名