当前位置: 首页 > wzjs >正文

有哪些做包装盒的网站线上销售怎么做推广

有哪些做包装盒的网站,线上销售怎么做推广,做免费网站推广开头语,做论坛网站需要什么备案文章目录 前言Kafka连接器基础案例演示前置说明和环境准备步骤Kafka连接器基本配置关联数据源映射转换案例效果演示基于Kafka连接器同步数据到MySQL案例说明前置准备Kafka连接器消费位点调整映射转换与数据投递MysqlSlink持久化收集器数据最终效果演示小结参考前言 本文将基于…

文章目录

    • 前言
    • Kafka连接器基础案例演示
      • 前置说明和环境准备步骤
      • Kafka连接器基本配置
      • 关联数据源
      • 映射转换
      • 案例效果演示
    • 基于Kafka连接器同步数据到MySQL
      • 案例说明
      • 前置准备
      • Kafka连接器消费位点调整
      • 映射转换与数据投递
      • MysqlSlink持久化收集器数据
      • 最终效果演示
    • 小结
    • 参考

前言

本文将基于内置kafka连接器演示如何使用kafka内置流收集器的api完成Kafka数据的采集,同时我们也会给出一个收集Kafka数据流数据保存到MySQL的示例,希望对你有帮助。

Kafka连接器基础案例演示

前置说明和环境准备步骤

本案例将基于Kafka投递的单词(用逗号分隔),通过flink完成抽取,切割为独立单词,并完成词频统计,例如我们输入hello,world,最终控制台就会输出hello,1world,1

在正式演示之前,笔者介绍一些flink的使用版本:

<flink.version>1.16.0</flink.version>

对应还有下面这些依赖分别用于:

  1. 使用Kafka连接器
  2. 使用hutool的jdbc连接器
  3. MySQL驱动包
 <!-- CSV Format for Kafka (因为你的配置中用了 'format' = 'csv') --><dependency><groupId>org.apache.flink</groupId><artifactId>flink-csv</artifactId><version>${flink.version}</version></dependency><!-- JDBC Connector (用于你的 spend_report 表写入 MySQL) --><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-jdbc</artifactId><version>${flink.version}</version></dependency><dependency><groupId>mysql</groupId><artifactId>mysql-connector-java</artifactId><version>8.0.28</version> <!-- 推荐使用 8.0.x 版本 --></dependency><dependency><groupId>cn.hutool</groupId><artifactId>hutool-all</artifactId><version>5.8.20</version></dependency>

完成这些后我们将Kafka等相关环境准备好就可以着手编码工作了。

Kafka连接器基本配置

首先我们基于StreamExecutionEnvironment 初始化环境构建配置:

 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

然后我们就可以基于内置的KafkaSource的建造者模式完成如Kafka连接器的构建:

  1. setBootstrapServers设置Kafka地址为broker字符串配置的ip和端口号
  2. setTopics设置消费的主题为input-topic
  3. setGroupId当前kafka消费者组为my-group
  4. setStartingOffsets设置为从最早偏移量开始消费
  5. setValueOnlyDeserializer设置收到Kafka数据时直接反序列化为字符串

对应的代码如下所示:

	//基于建造者模式完成Kafka连接器的配置KafkaSource<String> source = KafkaSource.<String>builder().setBootstrapServers(brokers)//设置Kafka server端地址.setTopics("input-topic") //指定消费的Topic为input-topic.setGroupId("my-group")//设置消费组ID为my-group.setStartingOffsets(OffsetsInitializer.earliest())//设置从Kafka的最开始位置开始消费.setValueOnlyDeserializer(new SimpleStringSchema())// 设置数据直接反序列化为字符串.build();

这里需要补充一下关于Kafka消费位点的设置,flink已经内置了如下几种消费位点的设置,对应的代码配置示例如下,读者可参阅并进行配置:

KafkaSource.builder()
http://www.dtcms.com/wzjs/427554.html

相关文章:

  • 自己做网站要买服务器吗关键词排名提升工具
  • 网站建设作业多少钱长沙百度搜索排名
  • 简单php企业网站源码seo搜索引擎优化工资多少钱
  • 大宗交易网登录seo文案范例
  • 网站托管怎做网推放单平台
  • 织梦网站被做跳转还被删除文件惠州优化怎么做seo
  • 云端互联网站建设百度下载官网
  • 网络公司网站建设搜索
  • wordpress企业产品列表seoul是什么意思中文
  • 做网站需要了解什么推广赚佣金的软件排名
  • 湖州网站开发微营销推广软件
  • 软件外包公司创业网页优化方案
  • 网站公司做文员常用的网络营销推广方法有哪些
  • 江门做网站百度一下官网首页网址
  • 网站提交收录客户管理软件哪个好用
  • 网站开发总结网络营销推广策略有哪些
  • 茶叶网站建设模板网址大全导航
  • 做网站和app报价太原seo网络优化招聘网
  • 新华网两学一做专题网站网络营销的方式包括
  • 文章网建站客源软件哪个最好
  • 自己做图片的网站如何建立网站平台
  • 平面图设计软件app阳江seo
  • 移动网站开发做一个简单网页属于网络营销的特点是
  • 乡镇可以做门户网站seo哪家公司好
  • 网站建设与开发的论文广州优化公司哪家好
  • 门户网站标题居中加大百度网盘怎么找资源
  • 徐州做网站费用网站建设公司简介
  • 湖南哪里有做网站的上海百度推广优化排名
  • 网站建设预付款温州seo排名公司
  • 政府网站城市建设栏目内容app推广接单