当前位置: 首页 > news >正文

spark—SQL3

连接方式

  内嵌Hive:

使用时无需额外操作,但实际生产中很少使用。

  外部Hive:

    在虚拟机下载相关配置文件,在spark-shell中连接需将hive-site.xml拷贝到conf/目录并修改url、将MySQL驱动copy到jars/目录、把core-site.xml和hdfs-site.xml拷贝到conf/目录,最后重启spark-shell。

 (sz, rz这俩作用不一样,一个是输送到本地文件,一个是本地输到远程服务器的当前目录)

url中的localhost改为node01

 重新启动后

 运行Spark-SQL CLI:

    可在本地运行Hive元数据服务和执行查询任务。

将mysql驱动放入jars/、hive-site.xml文件放入conf/,运行bin/目录下的spark-sql.cmd即可执行SQL语句。

  代码操作Hive:

导入spark-hive_2.12和hive-exec依赖,将hive-site.xml拷贝到项目resources目录。

执行时出错,可设置HADOOP_USER_NAME解决。

默认数据库在本地仓库,可通过配置修改数据库仓库地址。

1.导入依赖。

<dependency>         <groupId>org.apache.spark</groupId>     <artifactId>spark-hive_2.12</artifactId>   <version>3.0.0</version></dependency><dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>2.3.3</version></dependency>

可能出现下载jar包的问题:D:\maven\repository\org\pentaho\pentaho-aggdesigner-algorithm\5.1.5-jhyde

2.将hive-site.xml 文件拷贝到项目的 resources 目录中。

3.代码实现。

val sparkConf = new SparkConf().setMaster("local[*]").setAppName("hive")

val spark:SparkSession = SparkSession.builder()

 .enableHiveSupport()

 .config(sparkConf) 

 .getOrCreate()

spark.sql("show databases").show()

spark.sql("create database spark_sql")

spark.sql("show databases").show()

相关文章:

  • 【网工第6版】第5章 网络互联②
  • 从0开始配置spark-local模式
  • FPGA 中 XSA、BIT 和 DCP 文件的区别
  • XMLXXE 安全无回显方案OOB 盲注DTD 外部实体黑白盒挖掘
  • 什么是AI智能音视频?小天互连即时通讯带您体验
  • Spark-SQL与Hive
  • VR、AR、互动科技:武汉数字展馆制作引领未来展览新体验
  • 树莓派超全系列教程文档--(38)config.txt视频配置
  • 星云智控科技-优雅草星云物联网AI智控系统软件产品技术栈一览表-优雅草卓伊凡
  • 超大文件处理——大文件断点续传源码-下载大文件卡死服务器—星辰大文化术——未来之窗超算中心
  • git详解
  • 在线查看【免费】 txt, xml(渲染), md(渲染), java, php, py, js, css 文件格式网站
  • 智能照明系统:照亮智慧生活的多重价值
  • Harbor对接非AWS对象存储
  • Oracle DBA培训一般多长时间?
  • 腾讯云×数语科技:Datablau DDM (AI智能版)上架云应用!
  • 美创科技20周年庆典顺利举行
  • 【云原生】k8s集群部署最新版ELFK日志采集平台
  • UML 状态图:陪伴机器人系统示例
  • 稳压二极管详解:原理、作用、应用与选型要点
  • 五粮液董事长:茅台1935已脱离千元价位带,五粮液在千元价位已逐步摆脱其他竞品纠缠
  • 美联储宣布维持基准利率不变
  • 现场|万米云端,遇见上博
  • 用社群活动维系“不开发”古镇的生命力
  • 央行:增加支农支小再贷款额度3000亿元
  • 42岁退役军人高武生命最后时刻:在水中托举近20分钟救出落水孩童