当前位置: 首页 > wzjs >正文

关于做公司app的软件或网站我要下载百度

关于做公司app的软件或网站,我要下载百度,加盟网站建设的内容,想找个人做网站以下是使用 Spark/SparkSQL 连接 MySQL 数据库、添加数据和读取数据的完整示例(需提前准备 MySQL 驱动包): 一、环境准备 1. 下载 MySQL 驱动 - 下载 mysql-connector-java-8.0.33.jar (或对应版本),放…

以下是使用 Spark/SparkSQL 连接 MySQL 数据库、添加数据和读取数据的完整示例(需提前准备 MySQL 驱动包):

一、环境准备

1. 下载 MySQL 驱动

- 下载  mysql-connector-java-8.0.33.jar (或对应版本),放入 Spark 的  jars  目录,或提交任务时用  --jars  指定路径。

2. 启动 SparkSession

scala

import org.apache.spark.sql.SparkSession

val spark = SparkSession.builder()

  .appName("Spark MySQL Demo")

  .master("local[*]") // 本地模式,集群环境需调整

  .getOrCreate()

 

二、连接 MySQL 并读取数据

方式 1:使用  spark.read.jdbc  读取

scala

// 配置连接参数

val jdbcUrl = "jdbc:mysql://localhost:3306/test_db"

val tableName = "users"

val connectionProperties = new java.util.Properties()

connectionProperties.put("user", "root")

connectionProperties.put("password", "your_password")

connectionProperties.put("driver", "com.mysql.cj.jdbc.Driver")

// 读取表数据

val df = spark.read.jdbc(jdbcUrl, tableName, connectionProperties)

// 显示数据

df.show()

 

方式 2:使用 SparkSQL 执行查询

scala

// 直接执行 SQL 查询(需指定完整表名)

val queryDF = spark.read.jdbc(

  jdbcUrl,

  s"(SELECT id, name FROM $tableName WHERE age > 18) AS temp", // 子查询防注入

  connectionProperties

)

queryDF.show()

 

三、向 MySQL 插入数据

场景 1:写入新表(自动创建)

scala

// 创建示例数据

val data = Seq(

  (3, "Alice", 25, java.sql.Timestamp.valueOf("2023-01-01 00:00:00")),

  (4, "Bob", 30, java.sql.Timestamp.valueOf("2023-02-02 00:00:00"))

)

val schema = StructType(

  Seq(

    StructField("id", IntegerType, false),

    StructField("name", StringType, true),

    StructField("age", IntegerType, true),

    StructField("create_time", TimestampType, true)

  )

)

val insertDF = spark.createDataFrame(data, schema)

// 写入 MySQL(若表不存在则自动创建,需确保库存在)

insertDF.write.format("jdbc")

  .option("url", jdbcUrl)

  .option("dbtable", "users") // 表名

  .option("user", "root")

  .option("password", "your_password")

  .option("driver", "com.mysql.cj.jdbc.Driver")

  .mode("append") // 追加模式(可选:overwrite/ignore/replace)

  .save()

 

场景 2:向现有表追加数据

scala

// 读取现有数据并新增记录

val existingDF = spark.read.jdbc(jdbcUrl, tableName, connectionProperties)

val newData = Seq((5, "Charlie", 35, java.sql.Timestamp.valueOf("2023-03-03 00:00:00")))

val newDF = spark.createDataFrame(newData, schema)

// 合并后写入(追加模式)

val combinedDF = existingDF.union(newDF)

combinedDF.write.jdbc(

  jdbcUrl,

  tableName,

  connectionProperties,

  "append" // 模式可通过第四个参数指定

)

 

四、关键参数说明 

 mode:  

写入模式: append (追加)、 overwrite (覆盖)、 ignore (忽略冲突) 

 dbtable :

目标表名(支持库名.表名格式,如  test_db.users ) 

 partitionColumn :

分区列(大数据量时用于并行读取,需配合  lowerBound / upperBound ) 

 fetchSize :

每次从数据库拉取的行数(优化性能,默认 1000) 

 createTableOptions :

建表时的额外参数(如  ENGINE=InnoDB   CHARSET=utf8 ) 

 

五、注意事项

1. 驱动版本匹配

- MySQL 8.0+ 需使用  mysql-connector-java-8.0+ ,低版本数据库用  5.1.x  驱动。

2. 权限问题

- 确保 MySQL 用户有  INSERT / SELECT  权限:

sql

GRANT INSERT, SELECT ON test_db.* TO 'user'@'localhost';

3. 大数据量优化

- 并行写入:通过  numPartitions  和  partitionColumn  分区(需指定主键或索引列)。

- 批量提交:设置  batchSize=1000  减少连接开销:

scala

.option("batchSize", "1000")

4. 类型映射

- Spark 与 MySQL 类型需匹配(如  StringType  →  VARCHAR , TimestampType  →  DATETIME )。

六、完整示例(Scala 版)

scala

import org.apache.spark.sql.{SparkSession, Row}

import org.apache.spark.sql.types.{StructType, StructField, IntegerType, StringType, TimestampType}

import java.sql.Timestamp

// 1. 初始化 SparkSession

val spark = SparkSession.builder()

  .appName("MySQL Demo")

  .master("local[*]")

  .getOrCreate()

// 2. 定义连接参数

val jdbcUrl = "jdbc:mysql://localhost:3306/test_db"

val tableName = "users"

val props = new java.util.Properties()

props.setProperty("user", "root")

props.setProperty("password", "your_password")

props.setProperty("driver", "com.mysql.cj.jdbc.Driver")

// 3. 读取数据

val df = spark.read.jdbc(jdbcUrl, tableName, props)

println("读取的数据:")

df.show()

// 4. 准备插入数据

val newData = Seq(

  Row(6, "David", 28, new Timestamp(System.currentTimeMillis()))

)

val schema = new StructType(

  Array(

    StructField("id", IntegerType, nullable = false),

    StructField("name", StringType, nullable = true),

    StructField("age", IntegerType, nullable = true),

    StructField("create_time", TimestampType, nullable = true)

  )

)

val insertDF = spark.createDataFrame(spark.sparkContext.parallelize(newData), schema)

// 5. 插入数据(追加模式)

insertDF.write.jdbc(jdbcUrl, tableName, "append", props)

println("数据插入完成!")

// 6. 验证插入结果

val updatedDF = spark.read.jdbc(jdbcUrl, tableName, props)

updatedDF.show()

// 7. 停止 SparkSession

spark.stop()

 

执行后可通过 MySQL 客户端验证数据是否正确写入。

http://www.dtcms.com/wzjs/265083.html

相关文章:

  • 网站内页制作优化最狠的手机优化软件
  • 建设公司网站征集信息的通知济南seo顾问
  • 自己做的网站打不开怎么回事廊坊网站设计
  • 在线教学视频网站建设百度关键词搜索怎么收费
  • 龙岗网站建设公司网络服务人民网 疫情
  • php网站开发建设百度关键词优化有效果吗
  • 怎么制作网站维护公告效果青岛官网seo方法
  • 触屏版手机网站seo点击软件哪个好用
  • 昆明定制化网站建设建网站的公司
  • 官方网站建设网站现在有什么技能培训班
  • 做网站用的什么服务器seo关键词排名系统
  • 江西建设部网站网络媒体推广方案
  • 沈阳建设厅网站上海优化seo排名
  • 汕头市公司网站建设多少钱交换链接或称互惠链接
  • 个人养老金制度seo入门教程
  • 网站制作公司珠海郑州百度公司地址
  • 昆明网站建设价目表首页排名优化公司
  • 含山县住房和城乡建设局网站企业网站营销实现方式解读
  • 博罗做网站长沙岳麓区
  • wordpress文章幻灯片seo搜索优化公司
  • 百度推广去哪里学技术重庆seo网站推广优化
  • 浙江网站建设价格seo每天一贴
  • 个人建网站大概多少钱合肥关键词排名
  • 武汉 做网站seo自学教程推荐
  • wordpress 加广告位深圳宝安seo外包
  • 本地建站软件有哪些百度关键词搜索怎么弄
  • dw网站建设字体颜色温州seo推广外包
  • wordpress 站外调用全国推广优化网站
  • 个人网站备案有什么限制seo优化运营
  • php网站开发账号密码湖南手机版建站系统开发