当前位置: 首页 > news >正文

spark任务运行

运行环境

在这里插入代码片
[root@hadoop000 conf]# java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
[root@hadoop000 conf]# echo $JAVA_HOME
/home/hadoop/app/jdk1.8.0_144
[root@hadoop000 conf]# vi spark-env.sh
[root@hadoop000 conf]# mv slaves.template slaves
[root@hadoop000 conf]# vi slave

步骤

/home/hadoop/app/spark-2.2.0-bin-2.6.0-cdh5.7.0/bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://192.168.2.111:7077 \
--executor-memory 1G \
--total-executor-cores 2 \
/home/hadoop/app/spark-2.2.0-bin-2.6.0-cdh5.7.0/examples/jars/spark-examples_2.11-2.2.0.jar

spark-shell

[root@hadoop000 bin]# /home/hadoop/app/spark-2.2.0-bin-2.6.0-cdh5.7.0/bin/spark-shell \
> --master spark://192.168.2.111:7077 \
> --executor-memory 2G \
> --total-executor-cores 2
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
25/02/15 16:45:37 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
25/02/15 16:45:43 WARN ObjectStore: Failed to get database global_temp, returning NoSuchObjectException
Spark context Web UI available at http://192.168.2.111:4040
Spark context available as 'sc' (master = spark://192.168.2.111:7077, app id = app-20250215164538-0002).
Spark session available as 'spark'.
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /___/ .__/\_,_/_/ /_/\_\   version 2.2.0
      /_/
         
Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_144)
Type in expressions to have them evaluated.
Type :help for more information.
scala> sc.textFile("hdfs://192.168.2.102:9000//user/spark/input/word.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).saveAsTextFile("hdfs://192.168.2.102:9000//user/spark/out")
scala> sc.textFile("hdfs://192.168.2.102:9000/user/spark/out/*").collect().foreach(println)
(orange,1)
(queen,1)
(rabbit,1)
(fish,1)
(dog,1)
(apple,1)
(pig,1)
(umbrella,1)
(snake,1)
(lion,1)
(juice,1)
(cat,1)
(tiger,1)
(banana,1)
(monkey,1)
(nose,1)
(kite,1)
(elephant,1)
(ice,1)
(goat,1)
(horse,1)
http://www.dtcms.com/a/19042.html

相关文章:

  • Nessus 工具使用全攻略
  • C++ Primer 函数重载
  • 共享存储-一步一步部署ceph分布式文件系统
  • luoguP8764 [蓝桥杯 2021 国 BC] 二进制问题
  • 嵌入式开发应该具备哪些编程思维?
  • JDK1.8新特性面试题
  • springboot整合redis
  • 随机生成多孔介质matlab程序
  • 【kafka系列】生产者
  • 第十二篇:黑客帝国终章——电子技术思维导图与三电技术进化论
  • 线程安全的集合类
  • 每日十题八股-补充材料-2025年2月15日
  • Bob the Canadian
  • 安装Homebrew时提示Warning: /opt/homebrew/bin is not in your PATH.
  • UNET改进62:添加HFERB模块|提取高频信息的高频增强残差块
  • 基于Deepseek自动生成单元测试的Idea插件
  • 5分钟掌握LM Studio本地部署DeepSeek R1
  • Rust包管理
  • 计算机软件毕业设计选题指南:热门方向与创新思路
  • 【java】方法的值传递
  • 数据守护者:备份文件的重要性及自动化备份实践
  • 《深度Q网络优化:突破高维连续状态空间的束缚》
  • 代码随想录算法营Day39 | 416. 分割等和子集
  • 小火车理论
  • 高血压危险因素分析(项目分享)
  • 计算机基础-内存分配
  • Swift - 引用计数
  • 数电基础总结
  • STM32的HAL库开发---内存保护(MPU)
  • 第二节 字符串、列表