当前位置: 首页 > news >正文

Shell脚本提交Spark任务简单案例

一、IDEA打包SparkETL模块,上传值HDFS的/tqdt/job目录
二、创建ods_ETL.sh脚本

mkdir -p /var/tq/sh/dwd
vim /var/tq/sh/dwd/ods_ETL.sh
chmod 754 /var/tq/sh/dwd/ods——ETL.sh
#脚本内容如下
#!/bin/bash
cur_date=$(date +%Y-%m-%d)
/opt/bigdata/spark-3.3.2/bin/spark-submit \
--master yarn \    #yarn提交模式
--deploy-mode cluster \  # appcationmaster与driver同节点
--queue default \ 
--driver-memory 1G \   # driver内存
--driver-cores 1 \     # driver核数
--executor-memory 1G \ # executor内存
--executor-cores 1 \   # executor核数
--num-executors 2 \    # executor数量
--conf spark.sql.shuffle.partitions=4 \  # 分区数,对最终文件数有决定作用
--name "ODS层数据ETL" \
--class com.gdp.etl.job.Job01 \  #运行主类
hdfs://hdfs-tqdt/tqdt/jobs/sparkETL.jar  # jar包存放路径
if [ $? -eq 0 ]
then
    echo "任务名称:ODS层源数据ETL,处理日期:${cur_date},结果状态:成功!"
    exit 0
else
    echo "任务名称:ODS层源数据ETL,处理日期:${cur_date},结果状态:失败!"
    exit 1
fi

三、测试脚本

#运行脚本
sh /var/tq/sh/dwd/ods_ETL.sh

在这里插入图片描述
问题:
打包后运行主类找不到
java.lang.ClassNotFoundException: com.gdp.etl.job.Job01
不知道是否是打包工具问题,手动将编译后的文件添加至相应目录下,问题得到解决。
在这里插入图片描述

http://www.dtcms.com/a/129009.html

相关文章:

  • Java基础 4.12
  • 《jQuery EasyUI 插件》
  • Linux基础5
  • 【数据结构与算法】ArrayList 和 顺序表
  • Python进阶(3):函数(接上篇)
  • Linux基础8
  • Linux磁盘大师:存储管理完全指南
  • Redis 哨兵模式 搭建
  • PDF 转换为 Word、HTML、LaTeX 和 Markdown 格式
  • TDengine 语言连接器(C/C++)
  • 智能手机功耗测试
  • jxls2.10实现模板导出/单元格合并/自定义标签实现单元格隐藏
  • 为什么ASCII的A是65[特殊字符]
  • NET模式下如何配置虚拟机的IP地址为静态的
  • 在Ubuntu 22.04里使用KVM创建虚拟机Ubuntu 22.04
  • 【源码】Mybatis源码
  • 图片文本识别OCR+DeepSeekapi实现提取图片关键信息
  • Linux权限理解
  • [IEEE TIP 2024](cv即插即用模块分享)IdeNet信息增强模块 性能提升必备!
  • 如何用海伦公式快速判断点在直线的哪一侧
  • MCP(模型上下文协议)简单案例
  • XILINX DDR3专题---(1)IP核时钟框架介绍
  • Python及C++中的列表
  • 2025届蓝桥杯JavaB组个人题解(题目全)
  • 【音视频】SDL播放PCM音频
  • 【音视频】SDL渲染YUV格式像素
  • 十六届蓝桥杯嵌入式省赛直播基本外设驱动
  • 设计模式 Day 8:策略模式(Strategy Pattern)完整讲解与实战应用
  • Bartender 5 for Mac 多功能菜单栏管理
  • CSS >子元素选择器和空格