import org.apache.spark.{SparkConf, SparkContext}object Main2 {def main(args: Array[String]): Unit = {//打印hello worldprintln("hello world")//学习spark RDD中的行动算子//1.collect :把分布在集群中各个节点上的RDD元素收集,以数组的形式返回。//2.count:返回RDD中元素的个数//3.reduce:聚合汇总。//4.forEach:循环遍历。val conf = new SparkConf().setMaster("local[*]").setAppName("Test")val sc = new SparkContext(conf)//创建一个RDDval rdd = sc.parallelize(List(1,2,3,4,5,6,7,8,9,10))// var arr=rdd.collect()
// arr.foreach(println)// println(rdd.count())//计算rdd中的元素之和
// val r = rdd.reduce((x,y)=> x+y)
// println(r)rdd.foreach(x=> println("元素:"+x))}
}