当前位置: 首页 > wzjs >正文

视频网站点击链接怎么做电商培训班

视频网站点击链接怎么做,电商培训班,余姚公司建设网站,做英语作业的网站无状态转换操作与有状态转换操作 无状态转换操作: 无状态转换操作仅处理当前时间跨度内的数据。例如,设置的采集时间为三秒,则只处理这三秒内的数据。 有状态转换操作(UpdateStateByKey): 有状态转换操作可以跨批次处理数据。涉及…

无状态转换操作与有状态转换操作

无状态转换操作

        无状态转换操作仅处理当前时间跨度内的数据。例如,设置的采集时间为三秒,则只处理这三秒内的数据。

有状态转换操作(UpdateStateByKey)

        有状态转换操作可以跨批次处理数据。涉及跨批次的状态维护,如累加整个输入数据流的数据。        (主函数中获取当前数据和之前的状态,并进行累加合并更新状态。)

              

UpdateStateByKey 函数

功能

用于跨批次维护状态,记录历史记录。提供对状态变量的访问,更新每个键对应的状态。

  updateStateByKey() 的结果会是一个新的 DStream,其内部的 RDD 序列是由每个时间区间对应的(键,状态)对组成的。

使用步骤

定义状态(任意数据类型)。定义状态更新函数,基于新数据和当前状态更新状态。

updateStateByKey 操作使得我们可以在用新信息进行更新时保持任意的状态。为使用这个功能,需要做下面两步:

                1. 定义状态,状态可以是一个任意的数据类型。

                2. 定义状态更新函数,用此函数阐明如何使用之前的状态和来自输入流的新值对状态进行更新。

代码示例

示例代码展示了如何定义和使用 updateStateByKey 函数进行累加操作。

(使用 updateStateByKey 需要对检查点目录进行配置,会使用检查点来保存状态。)

val updateFunc = (values:Seq[Int],state:Option[Int])=>{val currentCount = values.foldLeft(0)(_+_)val previousCount = state.getOrElse(0)Some(currentCount+previousCount)
}
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("update")
val ssc = new StreamingContext(sparkConf,Seconds(5))
ssc.checkpoint("./ck")val lines = ssc.socketTextStream("node01",9999)
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_,1))
val stateDStream = pairs.updateStateByKey[Int](updateFunc)
stateDStream.print()ssc.start()
ssc.awaitTermination()

Window Operations

        功能

设置窗口大小和滑动窗口间隔,动态获取流数据的状态。需要两个参数:窗口时长和滑动步长。

        使用要求

窗口时长和滑动步长必须是采集周期大小的整数倍。示例代码展示了如何设置窗口时长为12秒,滑动步长为6秒。

注意:

        这两者都必须为采集周期大小的整数倍。

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("window")
val ssc = new StreamingContext(sparkConf,Seconds(3))
ssc.checkpoint("./ck")val lines = ssc.socketTextStream("node01",9999)
val words = lines.flatMap(_.split(" "))
val pairs = words.map((_,1))
val wordCounts = pairs.reduceByKeyAndWindow((a:Int,b:Int)=>(a+b),Seconds(12),Seconds(6))
wordCounts.print()ssc.start()
ssc.awaitTermination()

DStream输出操作

常见方式

        打印在控制台上。保存成文本文件。保存成Java对象序列化形式。结合RDD进行输出。

输出操作如下:

 print():在运行流程序的驱动结点上打印 DStream 中每一批次数据的最开始 10 个元素。这用于开发和调试。

saveAsTextFiles(prefix, [suffix]):以 text 文件形式存储这个 DStream 的内容。每一批次的存储文件名基于参数中的 prefix 和 suffix。”prefix-Time_IN_MS[.suffix]”。

saveAsObjectFiles(prefix, [suffix]):以 Java 对象序列化的方式将 Stream 中的数据保存为SequenceFiles . 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]".

saveAsHadoopFiles(prefix, [suffix]):将 Stream 中的数据保存为 Hadoop files. 每一批次的存储文件名基于参数中的为"prefix-TIME_IN_MS[.suffix]"。

foreachRDD(func):这是最通用的输出操作,即将函数 func 用于产生于 stream 的每一个RDD。其中参数传入的函数 func 应该实现将每一个 RDD 中数据推送到外部系统,如将RDD 存入文件或者通过网络将其写入数据库。

        通用的输出操作 foreachRDD(),它用来对 DStream 中的 RDD 运行任意计算。这和 transform() 有些类似,都可以让我们访问任意 RDD。在 foreachRDD()中,可以重用我们在 Spark 中实现的所有行动操作。比如,常见的用例之一是把数据写到诸如 MySQL 的外部数据库中。

注意:

连接不能写在 driver 层面(序列化)

如果写在 foreach 则每个 RDD 中的每一条数据都创建,得不偿失;

增加 foreachPartition,在分区创建(获取)。

http://www.dtcms.com/wzjs/112495.html

相关文章:

  • 87网站建设工作室seo关键词推广多少钱
  • 做网站话术chatgpt网站
  • 网站制作要求产品推广渠道
  • 嘉兴网站制作计划信息流优化师职业规划
  • 网页设计欣赏可爱风格西安网站seo诊断
  • 站内seo和站外seo区别百度怎么推广网站
  • 酷炫给公司网站欣赏50篇经典软文100字
  • 营销型企业网站建设橘子seo历史查询
  • 中国铁路建设行业协会网站百度问问首页
  • 建设网站对服务器有什么要求吗厦门百度seo公司
  • 制作网站开发项目的方案书数据分析工具
  • 网站建设意向表什么是网站推广
  • jsp 网站连接数据库百度推广后台
  • wordpress 多站点迁移品牌软文范文
  • 闵行营销型网站制作seo优化 搜 盈seo公司
  • 临沂企业网站建设优化大师兑换码
  • 网站首页原型图怎么做深圳网站提升排名
  • 做网站 郑州公司网址提交百度收录
  • 网站图片漂浮代码网上做广告推广
  • 珠海网站建设珠海易推网看b站视频软件下载安装
  • 江阴建设银行网站seo技巧与技术
  • 佛山牛豹云网站开发模板建网站价格
  • 网站制作经费预算百度工具
  • wordpress小工具空格500强企业seo服务商
  • 专业微信网站建设公司首选公司seo基础培训机构
  • cco网站素材深圳白帽优化
  • 做手机网站公司郑州网络推广大包
  • icp备案网站建设方案书宁波免费seo在线优化
  • 北京网站seo策划站长工具官网
  • 响应式设计网站怎么做河南seo快速排名