当前位置: 首页 > wzjs >正文

南京斯点企业网站建设产品营销推广策略

南京斯点企业网站建设,产品营销推广策略,做ui的哪个威客网站比较好,大庆城市投资建设网站文章目录 每日一句正能量第4章 Spark SQL结构化数据文件处理章节概要4.4 RDD转换DataFrame4.4.1 反射机制推断Schema4.4.2 编程方式定义Schema 每日一句正能量 一个人若想拥有聪明才智,便需要不断地学习积累。 第4章 Spark SQL结构化数据文件处理 章节概要 在很多情…

文章目录

  • 每日一句正能量
  • 第4章 Spark SQL结构化数据文件处理
  • 章节概要
    • 4.4 RDD转换DataFrame
      • 4.4.1 反射机制推断Schema
      • 4.4.2 编程方式定义Schema

在这里插入图片描述

每日一句正能量

一个人若想拥有聪明才智,便需要不断地学习积累。

第4章 Spark SQL结构化数据文件处理

章节概要

在很多情况下,开发工程师并不了解Scala语言,也不了解Spark常用API,但又非常想要使用Spark框架提供的强大的数据分析能力。Spark的开发工程师们考虑到了这个问题,利用SQL语言的语法简洁、学习门槛低以及在编程语言普及程度和流行程度高等诸多优势,从而开发了Spark SQL模块,通过Spark SQL,开发人员能够通过使用SQL语句,实现对结构化数据的处理。本章将针对Spark SQL的基本原理、使用方式进行详细讲解。

4.4 RDD转换DataFrame

  • Spark官方提供了两种方法实现从RDD转换得到DataFrame。
  • 第一种方法是利用反射机制来推断包含特定类型对象的Schema,这种方式适用于对已知数据结构的RDD转换
  • 第二种方法通过编程接口构造一个Schema,并将其应用在已知的RDD数据中。

4.4.1 反射机制推断Schema

Windows系统开发Scala代码,可使用本地环境测试(需要先准备本地数据文件)。我们可以很容易的分析出当前数据文件中字段的信息,但计算机无法直观感受字段的实际含义,因此需要通过反射机制来推断包含特定类型对象的Schema信息,实现将RDD转换成DataFrame。

在Windows系统下开发Scala代码,可以使用本地环境测试,因此我们首先需要在本地磁盘准备文本数据文件,这里将HDFS中的/spark/person.txt文件下载到本地D:/spark/person.txt路径下。我们需要通过反射机制来推断包含特定类型对象的Schema信息。
接下来我们打开IDEA开发工具,创建名为"“spark_chapter04""的Maven工程,讲解实现反射机制推断Schema的开发流程。

具体步骤
1.创建Maven工程。
打开IDEA开发工具,创建名为“spark_chapter04”的Maven工程。
2.添加依赖。在pom.xml文件中添加Spark SQL依赖。,代码片段如下所示。

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.3.2</version>
</dependency>

3.定义case class样例类、字段和属性,样例类的参数名会被利用反射机制作为列名。通过sc对象读取文件生成一个RDD,将RDD 与样例类匹配,调用toDF()方法将RDD转换为DataFrame。代码如下所示

package cn.itcast.sqlimport org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, Row, SparkSession}case class Person(id:Int,name:String,age:Int)
object CaseClassSchema {def main(args: Array[String]): Unit = {//1.构建SparkSessionval spark : SparkSession = SparkSession.builder().appName("CaseClassSchema").master("local[2]").getOrCreate();//2.获取SparkContextval sc : SparkContext =spark.sparkContext;//设置日志打印级别sc.setLogLevel("WARN")//3.读取文件val data: RDD[Array[String]] =sc.textFile("D://spark//person.txt").map(x=>x.split(" "));//4.将RDD与样例类关联val personRdd: RDD[Person] = data.map(x=>Person(x(0).toInt,x(1),x(2).toInt))//5.获取DF//手动导入隐式转换import spark.implicits._val personDF: DataFrame = personRdd.toDF//------------DSL语法操作开始-------------//1、显示DataFrame的数据,默认显示20行personDF.show()//2、显示DataFrame的schema信息personDF.printSchema()//3、显示DataFrame记录数println(personDF.count())//4、显示DataFrame的所有字段personDF.columns.foreach(println)//5、取出DataFrame的第一行记录println(personDF.head())//6、显示DataFrame中name字段的所有值personDF.select("name").show()//7、过滤出DataFrame中年龄大于30的记录personDF.filter($"age" > 30).show()//8、统计DataFrame中年龄大于30的人数println(personDF.filter($"age">30).count())//9、统计DataFrame中按照年龄进行分组,求每个组的人数personDF.groupBy("age").count().show()//-----------DSL语法操作结束-------------//-----------SQL操作风格开始-------------//将DataFrame注册成表personDF.createOrReplaceTempView("t_person")//传入sql语句,进行操作spark.sql("select * from t_person").show()spark.sql("select * from t_person where name='zhangsan'").show()spark.sql("select * from t_person order by age desc").show()//-----------SQL操作风格结束-------------//关闭操作sc.stop()spark.stop()}
}

运行结果如下图所示
在这里插入图片描述

4.4.2 编程方式定义Schema

当Case类不能提前定义的时候,就需要采用编程方式定义Schema信息,实现RDD转换DataFrame的功能主要包含3个步骤,具体如下:
1.创建一个Row对象结构的RDD;
2.基于StructType类型创建Schema;
3.通过SparkSession提供的createDataFrame()方法来拼接Schema。

根据上述步骤,创建SparkSqISchema.scala文件,使用编程方式定义Schema信息的具体代码如下所示。

package cn.itcast.sql
import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.types.{IntegerType, StringType, StructField, StructType}
import org.apache.spark.sql.{DataFrame, Row, SparkSession}
object SparkSqlSchema {def main(args: Array[String]): Unit = {//1.创建SparkSessionval spark: SparkSession = SparkSession.builder().appName("SparkSqlSchema").master("local[2]").getOrCreate()//2.获取sparkContext对象val sc: SparkContext = spark.sparkContext//设置日志打印级别sc.setLogLevel("WARN")//3.加载数据val dataRDD: RDD[String] = sc.textFile("D://spark//person.txt")//4.切分每一行val dataArrayRDD: RDD[Array[String]] = dataRDD.map(_.split(" "))//5.加载数据到Row对象中val personRDD: RDD[Row] = dataArrayRDD.map(x=>Row(x(0).toInt,x(1),x(2).toInt))//6.创建Schemaval schema:StructType= StructType(Seq(StructField("id", IntegerType, false),StructField("name", StringType, false),StructField("age", IntegerType, false)))//7.利用personRDD与Schema创建DataFrameval personDF: DataFrame = spark.createDataFrame(personRDD,schema)//8.DSL操作显示DataFrame的数据结果personDF.show()//9.将DataFrame注册成表personDF.createOrReplaceTempView("t_person")//10.sql语句操作spark.sql("select * from t_person").show()//11.关闭资源sc.stop()spark.stop()}
}

转载自:https://blog.csdn.net/u014727709/article/details/136033354
欢迎 👍点赞✍评论⭐收藏,欢迎指正

http://www.dtcms.com/wzjs/525697.html

相关文章:

  • aws使用wordpress徐州seo管理
  • 网站支付链接怎么做网络营销推广方式案例
  • 一屏一屏的网站怎么做网站标题优化排名
  • 禅城网站建设公司石家庄seo关键词
  • 平谷武汉阳网站建设网站搭建公司
  • 宁波男科医院哪家好广州seo公司排行
  • 公司网站建设佛山哪家好seo软件推广
  • 嘉善网站建设公司简单的个人网页制作html
  • 如何在头条上做网站推广如何自己制作一个网站
  • 品牌自适应网站建设北京百度推广排名优化
  • 百度网站的建设今日头条网站推广
  • 建设银行 企业网站厦门关键词seo排名网站
  • 哈尔滨h5建站模板宁波seo网络推广
  • 为网站营销好处官网seo优化
  • 网站首页制作浩森宇特阿里指数官方网站
  • wordpress远程上传媒体文件百度怎么优化关键词排名
  • 2023年免费b站推广大全网络营销有哪些内容
  • 企业网站建设英文网站seo优化分析
  • asp网站知道用户名是adminui设计培训班哪家好
  • 网站建设评审标准最新最好的磁力搜索
  • 凡科网 免费网站深圳市企业网站seo
  • 坪地网站建设公司网站排行榜查询
  • 毕设做网站可能遇到的问题seo群发软件
  • 商品网站建设方案网站搜索优化价格
  • 网站脑图用什么做seo什么职位
  • 个人主页网站一手项目对接app平台
  • Wordpress收款方式seo网站优化推广
  • 最炫的网站长治seo顾问
  • 通信工程企业网站建设互联网推广方案
  • 天津做网站好的公司有哪些51网站统计