当前位置: 首页 > news >正文

新潮远网站建设镇江平面设计

新潮远网站建设,镇江平面设计,海口网站建设运营,工信部icp备案Spark 概念 Spark 提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。 核心架构 Spark Core 包含 Spark 的基本功能;尤其是…

Spark

概念

Spark 提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求。

核心架构

image-20240116205512400

Spark Core

包含 Spark 的基本功能;尤其是定义 RDD 的 API、操作以及这两者上的动作。其他 Spark 的库都是构建在 RDD 和 Spark Core 之上的

Spark SQL

提供通过 Apache Hive 的 SQL 变体 Hive 查询语言(HiveQL)与 Spark 进行交互的 API。每个数据库表被当做一个 RDD,Spark SQL 查询被转换为 Spark 操作。

Spark Streaming

对实时数据流进行处理和控制。Spark Streaming 允许程序能够像普通 RDD 一样处理实时数据

Mllib

一个常用机器学习算法库,算法被实现为对 RDD 的 Spark 操作。这个库包含可扩展的学习算法,比如分类、回归等需要对大量数据集进行迭代的操作。

GraphX

控制图、并行图操作和计算的一组算法和工具的集合。GraphX 扩展了 RDD API,包含控制图、创建子图、访问路径上所有顶点的操作

核心组件

image-20240116205531529

Cluster Manager-控制整个集群,监控 worker

在 standalone 模式中即为 Master 主节点,控制整个集群,监控 worker。在 YARN 模式中为资源管理器

Worker 节点-负责控制计算节点

从节点,负责控制计算节点,启动 Executor 或者 Driver。

Driver: 运行 Application 的 main()函数

Executor:执行器,是为某个 Application 运行在 worker node 上的一个进程

SPARK 编程模型

image-20240116205605472

Spark 应用程序从编写到提交、执行、输出的整个过程如图所示,图中描述的步骤如下:

  1. 用户使用 SparkContext 提供的 API(常用的有 textFile、sequenceFile、runJob、stop 等)编写 Driver application 程序。此外 SQLContext、HiveContext 及 StreamingContext 对SparkContext 进行封装,并提供了 SQL、Hive 及流式计算相关的 API。

  2. 使用SparkContext提交的用户应用程序,首先会使用BlockManager和BroadcastManager将任务的 Hadoop 配置进行广播。然后由 DAGScheduler 将任务转换为 RDD 并组织成 DAG,DAG 还将被划分为不同的 Stage。最后由 TaskScheduler 借助 ActorSystem 将任务提交给集群管理器(Cluster Manager)。

  3. 集群管理器(ClusterManager)给任务分配资源,即将具体任务分配到Worker上,Worker创建 Executor 来处理任务的运行。Standalone、YARN、Mesos、EC2 等都可以作为 Spark的集群管理器。

SPARK 计算模型

RDD 可以看做是对各种数据计算模型的统一抽象,Spark 的计算过程主要是 RDD 的迭代计算过程。RDD 的迭代计算过程非常类似于管道。分区数量取决于 partition 数量的设定,每个分区的数据只会在一个 Task 中计算。所有分区可以在多个机器节点的 Executor 上并行执行。

image-20240116205640864

SPARK 运行流程

image-20240116205700318

  1. 构建 Spark Application 的运行环境,启动 SparkContext

  2. SparkContext 向资源管理器(可以是 Standalone,Mesos,Yarn)申请运行 Executor 资源,并启动 StandaloneExecutorbackend

  3. Executor 向 SparkContext 申请 Task

  4. SparkContext 将应用程序分发给 Executor

  5. SparkContext 构建成 DAG 图,将 DAG 图分解成 Stage、将 Taskset 发送给 Task Scheduler,最后由 Task Scheduler 将 Task 发送给 Executor 运行

  6. Task 在 Executor 上运行,运行完释放所有资源

SPARK RDD 流程

image-20240116205721536

  1. 创建 RDD 对象

  2. DAGScheduler 模块介入运算,计算 RDD 之间的依赖关系,RDD 之间的依赖关系就形成了DAG

  3. 每一个 Job 被分为多个 Stage。划分 Stage 的一个主要依据是当前计算因子的输入是否是确定的,如果是则将其分在同一个 Stage,避免多个 Stage 之间的消息传递开销

SPARK RDD

RDD的创建方式

1)从 Hadoop 文件系统(或与Hadoop兼容的其他持久化存储系统,如Hive、Cassandra、HBase)输入(例如 HDFS)创建。

2)从父 RDD 转换得到新 RDD。

3)通过 parallelize 或 makeRDD 将单机数据创建为分布式 RDD。

RDD的两种操作算子(转换(Transformation)与行动(Action))

对于 RDD 可以有两种操作算子:转换(Transformation)与行动(Action)。

1)转换(Transformation):Transformation操作是延迟计算的,也就是说从一个RDD转换生成另一个 RDD 的转换操作不是马上执行,需要等到有 Action 操作的时候才会真正触发运算。

image-20240116205747740

2)行动(Action):Action 算子会触发 Spark 提交作业(Job),并将数据输出 Spark 系统。

image-20240116205811219

http://www.dtcms.com/a/510237.html

相关文章:

  • 做网站引流到天猫邯郸网站建设
  • 大理网站开发江西建设职业技术学院官方网站
  • 什么是企业营销型网站?无锡好的网站公司
  • 电商网站开发脑图wordpress oss 缩略图
  • 中企动力 35 做网站三折页设计那个网站做的好
  • 公司网站建设设计公司排名浅析个人网站的设计论文
  • 上海网站建设联系电话营销策划的步骤有哪些
  • 网站形式的具体例子杭州设计院
  • 网站架构设计文档营业执照包含网站开发
  • 做高端企业网站建设公司舟山建设工程信息网站
  • 做网站从什么做起南京有哪些做网站的公司
  • 润滑油网站建设福州网站外包
  • 闲置tp路由自己做网站郑州专业seo推荐
  • 做网站设计的公司名字做网站用了别人公司的图片可以吗
  • 淄博网站建设程序广州冼村房价
  • 石家庄网站建设策略网站安全防护找谁做
  • 从哪里找网站怎么在.Net中做团购网站
  • 专业做二手健身器材的是什么网站家用电脑搭建服务器
  • 莱阳做网站的wordpress远程媒体库
  • 平台怎样推广长春seo公司长春网站设计
  • 北京网站建设公司网站优化资讯下载深圳app
  • 自己做免流网站wordpress加密某一页面
  • 网站建设哪个语言好百度提交网站收录入口
  • 霸州建网站做进口假体下巴的网站
  • 帮别人做非法网站中国教育建设协会网站
  • 个人网站备案时间一个新网站怎么做seo
  • 前几年做那些网站致富网页设计师培训班大连
  • ps做网站效果图都是按几倍做什么平台可以免费打广告
  • 查看网站外链郑州做网站找哪家
  • 小型教育网站建设问题存在的百度商家怎么入驻