当前位置: 首页 > news >正文

Shell脚本提交Spark任务简单案例

一、IDEA打包SparkETL模块,上传值HDFS的/tqdt/job目录
二、创建ods_ETL.sh脚本

mkdir -p /var/tq/sh/dwd
vim /var/tq/sh/dwd/ods_ETL.sh
chmod 754 /var/tq/sh/dwd/ods——ETL.sh
#脚本内容如下
#!/bin/bash
cur_date=$(date +%Y-%m-%d)
/opt/bigdata/spark-3.3.2/bin/spark-submit \
--master yarn \    #yarn提交模式
--deploy-mode cluster \  # appcationmaster与driver同节点
--queue default \ 
--driver-memory 1G \   # driver内存
--driver-cores 1 \     # driver核数
--executor-memory 1G \ # executor内存
--executor-cores 1 \   # executor核数
--num-executors 2 \    # executor数量
--conf spark.sql.shuffle.partitions=4 \  # 分区数,对最终文件数有决定作用
--name "ODS层数据ETL" \
--class com.gdp.etl.job.Job01 \  #运行主类
hdfs://hdfs-tqdt/tqdt/jobs/sparkETL.jar  # jar包存放路径
if [ $? -eq 0 ]
then
    echo "任务名称:ODS层源数据ETL,处理日期:${cur_date},结果状态:成功!"
    exit 0
else
    echo "任务名称:ODS层源数据ETL,处理日期:${cur_date},结果状态:失败!"
    exit 1
fi

三、测试脚本

#运行脚本
sh /var/tq/sh/dwd/ods_ETL.sh

在这里插入图片描述
问题:
打包后运行主类找不到
java.lang.ClassNotFoundException: com.gdp.etl.job.Job01
不知道是否是打包工具问题,手动将编译后的文件添加至相应目录下,问题得到解决。
在这里插入图片描述

相关文章:

  • Java基础 4.12
  • 《jQuery EasyUI 插件》
  • Linux基础5
  • 【数据结构与算法】ArrayList 和 顺序表
  • Python进阶(3):函数(接上篇)
  • Linux基础8
  • Linux磁盘大师:存储管理完全指南
  • Redis 哨兵模式 搭建
  • PDF 转换为 Word、HTML、LaTeX 和 Markdown 格式
  • TDengine 语言连接器(C/C++)
  • 智能手机功耗测试
  • jxls2.10实现模板导出/单元格合并/自定义标签实现单元格隐藏
  • 为什么ASCII的A是65[特殊字符]
  • NET模式下如何配置虚拟机的IP地址为静态的
  • 在Ubuntu 22.04里使用KVM创建虚拟机Ubuntu 22.04
  • 【源码】Mybatis源码
  • 图片文本识别OCR+DeepSeekapi实现提取图片关键信息
  • Linux权限理解
  • [IEEE TIP 2024](cv即插即用模块分享)IdeNet信息增强模块 性能提升必备!
  • 如何用海伦公式快速判断点在直线的哪一侧
  • 做凸透镜成像的网站/谷歌seo是什么职业
  • 东莞阿里巴巴网站建设/seo搜索优化是什么
  • 阿里云主机怎么做两个网站/网页制作html代码
  • 找个做网站的/东莞搜索优化
  • 网站建设与开发专业/网络推广员是什么工作
  • 重庆定制型网站建设/网络营销服务