当前位置: 首页 > news >正文

Pyspark中的int

在 PySpark 中,整数类型(int)与 Python 或 Pandas 中的 int 有所不同,因为它基于 Spark SQL 的数据类型系统。以下是 PySpark 中整数类型的详细说明:


1. PySpark 的整数类型

PySpark 主要使用 IntegerType(32位)和 LongType(64位)表示整数,对应 SQL 中的 INT 和 BIGINT

PySpark 类型SQL 类型位数取值范围占用存储
IntegerTypeINT32位-2,147,483,648 到 2,147,483,6474 字节
LongTypeBIGINT64位-9,223,372,036,854,775,808 到 9,223,372,036,854,775,8078 字节

2. 如何指定整数类型?

在 PySpark 中,可以通过 StructType 或 withColumn 显式指定整数类型:

(1) 创建 DataFrame 时指定

from pyspark.sql.types import IntegerType, LongType
from pyspark.sql import SparkSessionspark = SparkSession.builder.appName("int_example").getOrCreate()data = [("Alice", 25), ("Bob", 30), ("Charlie", 35)]# 方式1:使用 StructType 定义 Schema
from pyspark.sql.types import StructType, StructField, StringTypeschema = StructType([StructField("name", StringType(), True),StructField("age", IntegerType(), True)  # 使用 IntegerType(32位)
])df = spark.createDataFrame(data, schema)
df.printSchema()

输出:

root|-- name: string (nullable = true)|-- age: integer (nullable = true)  # 32位整数

(2) 转换列类型

from pyspark.sql.functions import col# 将 age 列从 IntegerType 转为 LongType(64位)
df = df.withColumn("age", col("age").cast("long"))  # 或 LongType()
df.printSchema()

输出:

root|-- name: string (nullable = true)|-- age: long (nullable = true)  # 64位整数

3. 默认整数类型

  • PySpark 默认推断整数为 IntegerType(32位)

    • 如果数值在 -2,147,483,648 到 2,147,483,647 之间,PySpark 会使用 IntegerType

    • 如果超出范围,会自动转为 LongType(64位)。

示例:

data = [("A", 100), ("B", 3000000000)]  # 3000000000 超出 32位范围
df = spark.createDataFrame(data, ["name", "value"])
df.printSchema()

输出:

root|-- name: string (nullable = true)|-- value: long (nullable = true)  # 自动转为 LongType

4. 如何选择 IntegerType 还是 LongType

场景推荐类型原因
内存优化IntegerType32位比 64位节省 50% 存储空间
大数值需求LongType避免溢出(如 ID、时间戳、大金额)
兼容性LongType某些数据库(如 MySQL 的 BIGINT)需要 64位

5. 常见问题

(1) PySpark 的 int 和 Python 的 int 有什么区别?

  • Python int:在 64 位系统上是 int64(无限制大小)。

  • PySpark IntegerType:固定 32 位,类似 C/Java 的 int

(2) 如何检查列的类型?

df.schema["age"].dataType  # 返回 IntegerType 或 LongType

(3) 为什么有时 PySpark 会自动转 LongType

如果数值超出 IntegerType 范围(±21亿),PySpark 会自动升级为 LongType


6. 总结

特性IntegerType (32位)LongType (64位)
存储4 字节8 字节
范围±21亿±922亿亿
默认行为小整数默认使用大整数自动升级
适用场景内存优化、中小数值大数值、ID、时间戳

推荐做法:

  • 如果数据范围明确且较小,优先用 IntegerType 节省内存。

  • 如果处理 ID、时间戳或不确定范围,用 LongType 避免溢出。

相关文章:

  • 19. 双向链表
  • 【Pandas】pandas DataFrame unstack
  • 一站式用AI编程神奇Cursor/Trae(VScode环境)开发运行Scala应用
  • 最小生成树算法的解题思路与 C++ 算法应用
  • aws各类服务器编号
  • AWS RDS :多引擎托管数据库服务
  • RK3568笔记八十三:RTMP推流H264和PCM
  • VINS-Mono论文阅读笔记
  • 【Python3教程】Python3基础篇之命名空间和作用域
  • 安科瑞ASJ系列漏电流继电器:守护地铁配电安全的利器
  • ZArchiver:高效解压缩,轻松管理文件
  • 系统的性能优化
  • 管件接头的无序抓取
  • 如何用K8s+Istio进行云原生开发?
  • 固态硬盘的加装和初始化
  • Uniapp启动页白屏问题深度解析与全面解决方案
  • Flutter Melos在外包团队协作中的弊端与应对策略
  • JSX 详解:React 的核心语法
  • 用idea操作git缓存区回退、本地库回退、远程库回退
  • python爬虫关于多进程,多线程,协程的使用
  • dede企业网站带留言板后台查询/海南百度推广公司
  • 长沙房产网站/挖掘关键词的工具
  • dz网站后台/百度推广一般多少钱
  • 微网站开发语言/今天今日新闻头条最新消息
  • 哈尔滨最新通知/seo软件系统
  • 淄博英文网站建设专业/外包推广服务