当前位置: 首页 > news >正文

2025年江西省职业院校技能大赛“大数据应用开发“竞赛样题第二套

2025年江西省职业院校技能大赛“大数据应用开发“竞赛样题第二套


🔷博主介绍

致力于网络安全(漏洞挖掘、攻防实战)、Linux 内核系统(底层原理与性能调优)、区块链技术(Web3 安全与智能合约审计)、Python 语言应用(自动化攻防工具开发)、软件开发(全栈安全开发)等新一代信息技术领域的技术研究与干货分享,坚持以极简篇幅承载硬核知识的创作理念,为技术爱好者提供高效、深度、可落地的阅读体验。CSDN认证网络安全领域优质创作者、网络安全博客专家认证、阿里云专家博主

🌐各大技术专栏推荐

专栏名称专栏介绍
网络安全攻防之道为网络安全从业者、白帽黑客与技术爱好者打造的攻防知识阵地。深度剖析漏洞利用与防御的技术细节,实战演练渗透测试全流程,输出可落地的攻防策略,陪你在攻防对抗中持续进阶。
Linux 系统运维:从底层原理到企业级实战这里是 Linux 系统运维的实战修炼场:从系统初始化到高可用架构,从命令行魔术到自动化运维利器,深度拆解 CentOS/Ubuntu 在企业级业务、云原生环境中的运维密码。带你穿透系统底层逻辑,掌握性能调优、故障秒级定位、自动化脚本开发的硬核技能,进阶成为能扛住业务压力的 Linux 运维专家
【VulnHub 靶场攻防】从漏洞复现到实战渗透不管你是刚入门的渗透新人,还是想强化实战能力的安全工程师,都能在这儿找到匹配的靶场练手项目。我们聚焦可复现的漏洞利用技巧,结合 Nmap、Metasploit、BurpSuite 等工具实战演示,帮你把靶场经验转化为真实渗透能力,一步步成长为能在实战中 “打怪升级” 的渗透高手
博主年度总结与收获这里是旺仔 Sec 的创作成长日记!作为 CSDN 认证的网络安全优质创作者,我把每一年的技术深耕、创作思考、成长突破都浓缩在这儿 —— 从漏洞分析的技术沉淀,到内容创作的经验复盘,再到从工程师到博主的身份进阶,每一篇总结都是 “技术探索 + 创作感悟” 的双料干货

文章目录

  • 2025年江西省职业院校技能大赛“大数据应用开发“竞赛样题第二套
    • 任务A:大数据平台搭建(容器环境)(15分)
      • 子任务一:Hadoop 完全分布式安装配置
      • 子任务二:Kafka安装配置
      • 子任务三:Hive安装配置
    • 任务B:离线数据处理(25分)
      • 子任务一:数据抽取
      • 子任务二:数据清洗
      • 子任务三:指标计算
    • 任务C:数据挖掘(10分)
      • 子任务一:特征工程
      • 子任务二:报警预测
    • 任务D:数据采集与实时计算(20分)
      • 子任务一:实时数据采集
      • 子任务二:使用Flink处理Kafka中的数据
    • 任务E:数据可视化(15分)
      • 子任务一:用饼状图展示每日各状态总时长
      • 子任务二:用柱状图展示设备历史各个状态持续时长
      • 子任务三:用单轴散点图展示各设备加工每件产品所需时长
      • 子任务四:用散点图展示环境湿度变化
      • 子任务五:用折柱混合图展示设备日均产量和所在车间日均产量
    • 任务F:综合分析(10分)
      • 子任务一:Hadoop有哪些类型的调度器?简要说明其工作方法。
      • 子任务二:请简述Spark中共享变量的基本原理和用途。
      • 子任务三:请根据可视化部分设备各状态时长等信息进行以下分析。
    • 技能大赛参考答案

背景描述
工业互联网是工业全要素、全产业链、全价值链的全面连接,是人、机、物、工厂互联互通的新型工业生产制造服务体系,是互联网从消费领域向生产领域、从虚拟经济向实体经济拓展的核心载体,是建设现代化经济体系、实现高质量发展和塑造全球产业竞争力的关键支撑,工业大数据则是工业互联网实现工业要素互联之后的核心价值创造者。随着大数据行业的发展,工业数据收集呈现时间维度不断延长、数据范围不断扩大、数据粒度不断细化的趋势。以上三个维度的变化使得企业所积累的数据量以加速度的方式在增加,最终构成了工业大数据的集合。 为完成工业大数据分析工作,你所在的小组将应用大数据技术,以Scala作为整个项目的基础开发语言,基于大数据平台综合利用 Hive、Spark、Flink、Vue.js等技术,对数据进行处理、分析及可视化呈现,你们作为该小组的技术人员,请按照下面任务完成本次工作。

任务A:大数据平台搭建(容器环境)(15分)

环境说明:
(1)进入环境后,需要双击桌面上名称为“初始化网络”的图标,初始化实训平台网络。
(2) 环境中已实现master到slave1、slave2的免密登录。若想切换至slave1或slave2节点,可以打开新的Linux终端窗口,输入“ssh slave1”或“ssh slave2”即可切换到对应的节点。

子任务一:Hadoop 完全分布式安装配置

本任务需要使用root用户完成相关配置,安装Hadoop需要配置前置环境。命令中要求使用绝对路径,具体要求如下:
1、 将文件hadoop-3.1.4.tar.gz、jdk-8u281-linux-x64.tar.gz复制到容器master中的/opt/software路径中(若路径不存在,则需新建),将master节点JDK安装包解压到/opt/module路径中(若路径不存在,则需新建),将JDK解压命令及结果截图;
2、 修改各节点的/etc/profile文件,设置JDK环境变量并使其生效,配置完毕后在master节点分别执行“java -version”和“javac”命令,将命令行执行结果分别截图;
3、 用scp命令并使用绝对路径从master复制JDK解压后的安装文件到slave1、slave2节点(若路径不存在,则需新建),并配置slave1、slave2相关环境变量,将全部scp复制JDK的命令及结果截图;
4、 在master将Hadoop解压到/opt/module(若路径不存在,则需新建)目录下,并将解压包分发至slave1、slave2中,其中master、slave1、slave2节点均作为datanode,配置好相关环境,初始化Hadoop环境namenode,将初始化命令及初始化结果截图(截取初始化结果日志最后20行即可);
5、 启动Hadoop集群(包括hdfs和yarn),使用jps命令查看master节点与slave1节点的Java进程,将jps命令与结果截图。
【答案提交】
根据赛题提供的“答案报告1.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告1.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务二:Kafka安装配置

本任务需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体要求如下:
1、 将文件apache-zookeeper-3.6.3-bin.tar.gz、kafka_2.12-2.4.1.tgz复制到master中的/opt/software路径中(若路径不存在,则需新建),将master节点Zookeeper,Kafka安装包解压到/opt/module目录下,将Kafka解压命令及结果截图;
2、 配置好zookeeper,其中zookeeper使用集群模式,分别将master、slave1、slave2作为其节点(若zookpeer已安装配置好,则无需再次配置),配置好Kafka的环境变量,使用kafka-server-start.sh --version查看Kafka的版本内容,并将命令和结果截图;
3、 完善其他配置并分发Kafka文件到slave1、slave2中,并在每个节点启动Kafka,创建Topic,其中Topic名称为installtopic,分区数为2,副本数为2,将创建命令和创建成果截图。
【答案提交】
根据赛题提供的“答案报告2.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告2.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务三:Hive安装配置

本任务需要使用root用户完成相关配置,已安装Hadoop及需要配置前置环境,具体要求如下:
1、 将文件apache-hive-3.1.2-bin.tar.gz、mysql-connector-java-8.0.30.jar复制到master中的/opt/software路径中(若路径不存在,则需新建),将master节点Hive安装包解压到/opt/module目录下,将命令及结果截图;
2、 设置Hive环境变量,并使环境变量生效,执行命令hive --version并将命令与结果截图;
3、 完成相关配置并添加所依赖包,将MySQL数据库作为Hive元数据库。初始化Hive元数据,并通过schematool相关命令执行初始化,将初始化结果截图(范围为命令执行结束的最后10行)。
【答案提交】
根据赛题提供的“答案报告3.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告3.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

任务B:离线数据处理(25分)

环境说明:
(1)进入环境后,需要双击桌面上名称为“初始化网络”的图标,初始化实训平台网络。
(2)master节点 MySQL 数据库用户名/密码:root/123456; Hive 的配置文件位于/usr/local/apache-hive-3.1.2-bin/conf/。

子任务一:数据抽取

编写Scala代码,使用Spark将MySQL库中表EnvironmentData,ChangeRecord,BaseMachine,MachineData,ProduceRecord全量抽取到Hive的ods库中对应表environmentdata,changerecord,basemachine, machinedata, producerecord中。
1、 抽取MySQL的shtd_industry库中EnvironmentData表的全量数据进入Hive的ods库中表environmentdata,字段排序、类型不变,同时添加静态分区,分区字段为etldate,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.environmentdata命令,将结果截图;
2、 抽取MySQL的shtd_industry库中ChangeRecord表的全量数据进入Hive的ods库中表changerecord,字段排序、类型不变,同时添加静态分区,分区字段为etldate,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.changerecord命令,将结果截图;
3、 抽取MySQL的shtd_industry库中BaseMachine表的全量数据进入Hive的ods库中表basemachine,字段排序、类型不变,同时添加静态分区,分区字段为etldate,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.basemachine命令,将结果截图;
4、 抽取MySQL的shtd_industry库中ProduceRecord表的全量数据进入Hive的ods库中表producerecord,剔除ProducePrgCode字段,其余字段排序、类型不变,同时添加静态分区,分区字段为etldate,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.producerecord命令,将结果截图;
5、 抽取MySQL的shtd_industry库中MachineData表的全量数据进入Hive的ods库中表machinedata,字段排序、类型不变,同时添加静态分区,分区字段为etldate,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.machinedata命令,将结果截图。
【答案提交】
根据赛题提供的“答案报告4.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告4.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务二:数据清洗

编写Hive SQL代码,将ods库中相应表数据全量抽取到Hive的dwd库中对应表中。表中有涉及到timestamp类型的,均要求按照yyyy-MM-dd HH:mm:ss,不记录毫秒数,若原数据中只有年月日,则在时分秒的位置添加00:00:00,添加之后使其符合yyyy-MM-dd HH:mm:ss。
1、 抽取ods库中environmentdata的全量数据进入Hive的dwd库中表fact_environment_data,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写当前操作时间,并进行数据类型转换。使用hive cli按照envoid降序排序,查询前5条数据,将结果截图;
2、 抽取ods库中changerecord的全量数据进入Hive的dwd库中表fact_change_record,抽取数据之前需要对数据根据changeid和changemachineid进行联合去重处理,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写当前操作时间,并进行数据类型转换。使用hive cli按照change_machine_id、change_id降序排序,查询前1条数据,将结果截图;
3、 抽取ods库中basemachine的全量数据进入Hive的dwd库中表dim_machine,抽取数据之前需要对数据根据basemachineid进行去重处理。分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写当前操作时间,并进行数据类型转换。使用hive cli按照base_machine_id升序排序,查询dim_machine前2条数据,将结果截图;
4、 抽取ods库中producerecord的全量数据进入Hive的dwd库中表fact_produce_record,分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写当前操作时间,并进行数据类型转换。使用hive cli按照produce_machine_id、produce_record_id升序排序,查询fact_produce_record前2条数据,将结果截图;
5、 抽取ods库中machinedata的全量数据进入Hive的dwd库中表fact_machine_data。分区字段为etldate且值与ods库的相对应表该值相等,并添加dwd_insert_user、dwd_insert_time、dwd_modify_user、dwd_modify_time四列,其中dwd_insert_user、dwd_modify_user均填写“user1”,dwd_insert_time、dwd_modify_time均填写当前操作时间,并进行数据类型转换。使用hive cli按照machine_id、machine_record_id降序排序,查询前1条数据,将结果截图。
【答案提交】
根据赛题提供的“答案报告5.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告5.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务三:指标计算

1、 本任务基于以下2、3、4小题完成,使用DolphinScheduler完成第2、3、4题任务代码的调度。工作流要求,使用shell输出“开始”作为工作流的第一个job(job1),2、3、4题任务为并行任务且它们依赖job1的完成(命名为job2、job3、job4),job2、job3、job4完成之后使用shell输出“结束”作为工作流的最后一个job(endjob),endjob依赖job2、job3、job4,并将最终任务调度完成后的工作流截图;

2、 编写Scala代码,使用Spark根据dwd层的fact_environment_data表,统计检测设备(baseid)每月的PM10的检测平均浓度,然后将每个设备的每月平均浓度与厂内所有检测设备每月检测结果的平均浓度做比较(结果值为:高/低/相同),计算结果存入MySQL数据库shtd_industry的machine_runningAVG_compare表中(表结构如下),然后在Linux的MySQL命令行中根据检测设备ID降序排序,查询出前5条,将SQL语句及执行结果截图;

字段类型中文含义备注
base_idint检测设备ID
machine_avgvarchar单设备检测平均值
factory_avgvarchar厂内所有设备平均值
comparisonvarchar比较结果高/低/相同
env_date_yearvarchar检测年份如:2021
env_date_monthvarchar检测月份如:12

3、 编写Scala代码,使用Spark根据dwd层的fact_change_record表统计每个月(change_start_time的月份)、每个设备、每种状态的时长,若某状态当前未结束(即change_end_time值为空)则该状态不参与计算,计算结果存入MySQL数据库shtd_industry的machine_state_time表中(表结构如下),然后在Linux的MySQL命令行中根据设备id、状态持续时长均为降序排序,查询出前10条,将SQL语句及执行结果截图;

字段类型中文含义备注
machine_idint设备id
change_record_statevarchar状态
duration_timevarchar持续时长(秒)当月该状态的时长和
yearint状态产生的年
monthint状态产生的月

4、 编写Scala代码,使用Spark根据dwd层的fact_change_record表关联dim_machine表统计每个车间中所有设备运行时长(即设备状态为“运行”)的中位数在哪个设备(为偶数时,两条数据原样保留输出),若某个设备运行状态当前未结束(即change_end_time值为空)则该状态不参与计算,计算结果存入MySQL数据库shtd_industry的machine_running_median表中(表结构如下),然后在Linux的MySQL命令行中根据所属车间、设备id均为降序排序,查询出前5条数据,将SQL语句及执行结果截图;

字段类型中文含义备注
machine_idint设备id
machine_factoryint所属车间
total_running_timeint运行总时长结果以秒为单位

【答案提交】
根据赛题提供的“答案报告6.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告6.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

任务C:数据挖掘(10分)

环境说明:
(1)进入环境后,需要双击桌面上名称为“初始化网络”的图标,初始化实训平台网络。
(2)master节点 MySQL 数据库用户名/密码:root/123456; Hive 的配置文件位于/opt/apache-hive-2.3.4-bin/conf/。
(3)该任务均使用 Scala 编写,利用 Spark 相关库完成。

子任务一:特征工程

1、 根据dwd库中fact_machine_data表(或MySQL的shtd_industry库中MachineData表),根据以下要求转换:获取最大分区(MySQL不用考虑)的数据后,首先解析列machine_record_data(MySQL中为MachineRecordData)的数据(数据格式为xml,采用dom4j解析,解析demo在客户端/home/ubuntu/Documents目录下),并获取每条数据的主轴转速,主轴倍率,主轴负载,进给倍率,进给速度,PMC程序号,循环时间,运行时间,有效轴数,总加工个数,已使用内存,未使用内存,可用程序量,注册程序量等相关的值(若该条数据没有相关值,则按下表设置默认值),同时转换machine_record_state字段的值,若值为报警,则填写1,否则填写0,以下为表结构,将数据保存在dwd.fact_machine_learning_data,使用hive cli按照
machine_record_id升序排序,查询dwd.fact_machine_learning_data前1条数据,将结果截图。

字段类型中文含义备注
machine_record_idint主键
machine_iddouble设备id
machine_record_statedouble设备状态默认0.0
machine_record_mainshaft_speeddouble主轴转速默认0.0
machine_record_mainshaft_multipleratedouble主轴倍率默认0.0
machine_record_mainshaft_loaddouble主轴负载默认0.0
machine_record_feed_speeddouble进给倍率默认0.0
machine_record_feed_multipleratedouble进给速度默认0.0
machine_record_pmc_codedoublePMC程序号默认0.0
machine_record_circle_timedouble循环时间默认0.0
machine_record_run_timedouble运行时间默认0.0
machine_record_effective_shaftdouble有效轴数默认0.0
machine_record_amount_processdouble总加工个数默认0.0
machine_record_use_memorydouble已使用内存默认0.0
machine_record_free_memorydouble未使用内存默认0.0
machine_record_amount_use_codedouble可用程序量默认0.0
machine_record_amount_free_codedouble注册程序量默认0.0
machine_record_datetimestamp记录日期
dwd_insert_userstring
dwd_insert_timetimestamp
dwd_modify_userstring
dwd_modify_timetimestamp

【答案提交】
根据赛题提供的“答案报告7.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告7.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务二:报警预测

1、 根据子任务一的结果,建立随机森林(随机森林相关参数可自定义,不做限制),使用子任务一的结果训练随机森林模型,然后再将hive中dwd.fact_machine_learning_data_test(该表字段含义与dwd.fact_machine_learning_data表相同,machine_record_state列值为空,表结构自行查看)转成向量,预测其是否报警将结果输出到MySQL数据库shtd_industry的ml_result表中(表结构如下)。在Linux的MySQL命令行中查询出machine_record_id为1、8、20、28和36的5条数据,将SQL语句及执行结果截图。
ml_result表结构:

字段类型中文含义备注
machine_record_idint主键
machine_record_statedouble设备状态报警为1,其他状态则为0

【答案提交】
根据赛题提供的“答案报告8.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告8.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

任务D:数据采集与实时计算(20分)

环境说明:

(1)进入环境后,需要双击桌面上名称为“初始化网络”的图标,初始化实训平台网络。
(2)master节点 MySQL 数据库用户名/密码:root/123456; Hive 的配置文件位于/usr/local/apache-hive-3.1.2-bin/conf/。

子任务一:实时数据采集

1、 在主节点使用Flume采集/data_log目录下实时日志文件中的数据,将数据存入到Kafka的Topic中(Topic名称分别为ChangeRecord、ProduceRecord和EnvironmentData,分区数为4),将Flume采集ChangeRecord主题的配置截图;
2、 编写新的Flume配置文件,将数据备份到HDFS目录/user/test/flumebackup下,要求所有主题的数据使用同一个Flume配置文件完成,将Flume的配置截图。
【答案提交】
根据赛题提供的“答案报告9.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告9.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

子任务二:使用Flink处理Kafka中的数据

编写Scala代码,使用Flink消费Kafka中的数据并进行相应的数据统计计算。
1、 使用Flink消费Kafka中EnvironmentData主题的数据,监控各环境检测设备数据,当温度(Temperature字段)持续3分钟高于38度时记录为预警数据。将结果存入Redis中,key值为“env_temperature_monitor”,value值为“设备id-预警信息生成时间,预警信息”(预警信息生成时间格式:yyyy-MM-dd HH:mm:ss)。使用redis cli以HGETALL key方式获取env_temperature_monitor值,将结果截图。需要Flink启动运行6分钟以后再截图;
注:时间语义使用Processing Time。
value示例:114-2022-01-01 14:12:19,设备114连续三分钟温度高于38度请及时处理!
中文内容及格式必须为示例所示内容。
同一设备3分钟只预警一次。

2、 使用Flink消费Kafka中ChangeRecord主题的数据,每隔1分钟输出最近3分钟的预警次数最多的设备。将结果存入Redis中,key值为“warning_last3min_everymin_out”,value值为“窗口结束时间,设备id”(窗口结束时间格式:yyyy-MM-dd HH:mm:ss)。使用redis cli以HGETALL key方式获取warning_last3min_everymin_out值,将结果截图。需两次截图,第一次截图和第二次截图间隔1分钟以上,第一次截图放前面,第二次截图放后面;
注:时间语义使用Processing Time。

3、 使用Flink消费Kafka中ChangeRecord主题的数据,实时统计每个设备从其他状态转变为“运行”状态的总次数。将结果存入MySQL数据库shtd_industry的change_state_other_to_run_agg表中(表结构如下)。请将任务启动命令截图,启动1分钟后根据change_machine_id降序查询change_state_other_to_run_agg表并截图,启动2分钟后根据change_machine_id降序查询change_state_other_to_run_agg表并再次截图。
注:时间语义使用Processing Time。
change_state_other_to_run_agg表:

字段类型中文含义
change_machine_idint设备id
last_machine_statevarchar上一状态。即触发本次统计的最近一次非运行状态
total_change_torunint从其他状态转为运行的总次数
in_timevarcharflink计算完成时间(yyyy-MM-dd HH:mm:ss)

【答案提交】
根据赛题提供的“答案报告10.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告10.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

任务E:数据可视化(15分)

环境说明:
数据接口地址及接口描述详见各任务服务端说明。

子任务一:用饼状图展示每日各状态总时长

编写Vue工程代码,根据接口,用饼状图展示每日各状态总时长(秒),同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图。

子任务二:用柱状图展示设备历史各个状态持续时长

编写Vue工程代码,根据接口,用柱状图展示接口所有数据中各设备各个状态持续时长(秒),同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图。

子任务三:用单轴散点图展示各设备加工每件产品所需时长

编写Vue工程代码,根据接口,用单轴散点图展示各设备加工每件产品所需时长(秒),同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图。

子任务四:用散点图展示环境湿度变化

编写Vue工程代码,根据接口,用基础散点图展示设备所处环境的湿度(Humidity)的变化,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图。

子任务五:用折柱混合图展示设备日均产量和所在车间日均产量

编写Vue工程代码,根据接口,用折柱混合图展示设备日均产量(四舍五入保留两位小数)和所在车间日均产量(四舍五入保留两位小数),其中柱状图展示各设备的日均产量,折线图展示该设备所在车间的日均产量,同时将用于图表展示的数据结构在浏览器的console中进行打印输出,将图表可视化结果和浏览器console打印结果分别截图。
【答案提交】
根据赛题提供的“答案报告11.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告11.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

任务F:综合分析(10分)

子任务一:Hadoop有哪些类型的调度器?简要说明其工作方法。

简要描述Hadoop有哪些类型的调度器并简要说明其工作方法,将内容编写至提交结果文档中。

子任务二:请简述Spark中共享变量的基本原理和用途。

请简述Spark中共享变量的基本原理和用途,将内容编写至提交结果文档中。

子任务三:请根据可视化部分设备各状态时长等信息进行以下分析。

根据设备各状态运行时长等信息,分析哪些设备使用率高,将内容编写至提交结果文档中。
【答案提交】
根据赛题提供的“答案报告12.docx”文档,将最终的答案命令与运行结果的截图整理入文档,并由队长以“考生1准考证号-答案报告12.docx”命名提交。答案以【考生1】账号提交的答案为准,若使用其他队员账号提交答案,或是以其他队员准考证号命名提交答案,视为无效提交。

技能大赛参考答案

🤵‍♂️ 个人博客主页: @旺仔Sec的博客主页
 
WeChat公众号:鹏璃安全
 
✍🏻 博主身份:网络安全兼技能大赛工程师(NISP、CISP、华为IE、IP、redhat、软考等职业证书报考可找我报考!)
 
🐋 希望大家多多支持,我们一起进步!😄
 
如果文章对你有帮助的话, 欢迎评论 💬点赞👍🏻 收藏 📂加关注(各大技能大赛参考答案链接如下)
 
🖥️:软件测试技能大赛参考答案
 
🙌:软件测试—单元自动化接口测试参考答案
 
👻:区块链技术应用技能大赛参考答案
 
🚀:大数据应用开发职业院校竞赛答案参阅
 
🔎:GZ100移动应用设计与开发参考答案
 
✍:GZ031应用软件系统开发参考答案
 
☠:网络安全职业技能大赛任务解析

http://www.dtcms.com/a/525621.html

相关文章:

  • 做美团旅游网站多少钱移动互联网服务管理中心官网
  • 织梦网站密码网站怎么自己做优化
  • 怎么给新网站做推广企业网站设计与实现论文
  • 网站建设项目环境影响评价目录网络推广方案最新
  • 提供邯郸wap网站建设前端开发工程师怎么考
  • 自己基于golang写的MongoRest单文件的 RESTful API 网关,直接通过mongodb发布rest,crub聚合简单的很-于大爷工具集
  • 【机器学习】贝叶斯算法原理与应用
  • 企业网站规划与开发金戈枸橼酸西地那非片
  • 物联网开发生态及学习路线
  • 优质校建设网站建设部网站业绩如何录入
  • 佛山市住房和建设局网站陕西省高速建设集团公司网站
  • 广州白云做网站的公司如何免费开自己的网站
  • 陇南建设网站在网站开发中哪里需要js文件
  • 深圳 网站公司网站建设培训心得
  • 开发电商网站多少钱广州响应式网站
  • Java 多线程编程
  • Nginx代理服务应用实战:HTTP代理模块、正向代理、反向代理与TCP/UDP代理详解
  • 代做视频的网站唐山网站建设制作
  • 全面掌握PostgreSQL关系型数据库,逻辑备份删除,笔记49
  • 企业网站 响应式 案例红安县建设局网站
  • 物联网数据中台智慧医院企业厂家——全视通
  • 网站的交互设计泰安集团网站建设流程
  • 电子电气架构 --- 智驾芯片及域控制器一文入门篇
  • win7网站服务器制作软件广东省建设行业统一身份认证平台
  • Python 第二十三节 常用练习问题(二)
  • 基于STM32的多圈绝对值编码器的调试
  • asp.net 登陆两个网站快应用 小程序
  • 虚幻引擎5 GAS开发俯视角RPG游戏 P06-19 打开属性菜单
  • 提供医疗网站建设wordpress不能编辑不能新建
  • 网站服务费怎么做分录设计师家园官网