四十一、SparkSQL读取parquet数据源(必须要弄懂)
haoteby 2025-05-08 18:31 32 浏览
1.Parquet文件介绍
Apache Parquet是Hadoop生态圈中一种新型的列式存储格式,它可以兼容Hadoop生态圈中大多数据的计算框架,如Hadoop, Spark,它也被多种查询引擎所支持,例如Hive, Impala等,而且它是跨语言和平台的。
Parquet的产生是由Twitter和Cloudera公司由于Apache Impala的缘故使用开发完成并开源给Apache基金会组织进行孵化,现已成为APache的顶级项目。
另一方面,随着嵌套格式数据的需求日益增加,目前Hadoop生态圈中主流的OLAP都支持丰富的数据类型,例如Hive, SparkSQL, Impala等都支持诸如array, map, struct这样的复合数据类型,这也使得像Parquet这种原生支持嵌套数据的存储格式变得至关重要,由于它是列式存储,所以在性能方面会很高。
列式存储,就是按照列进行存储数据,把某一旬的数据连续地存储,每一行中的不同的列离散分布。相比较于行存储,列存储具有以下优势:
- 可以跳过不符合条件的数据,只读取需要的数据,降低磁盘IO
- 使用压缩可以降低磁盘的存储空间,并且由于同一列的数据类型是一样的,可以使用更高效的压缩编码进一步节约存储空间;
- 只读取需要的列,能够获得更好的扫描性能;
Parquet是SparkSQL默认的存储格式,它支持灵活的读写Parquet文件,并对Parquet文件的schema可以自动解析。
import org.apache.spark.sql.{DataFrame, SparkSession}
object SparkSqlParquetSource {
def main(args: Array[String]): Unit = {
val spark: SparkSession = SparkSession.builder()
.appName(SparkSqlParquetSource.getClass.getSimpleName)
.master("local")
.getOrCreate()
spark.sparkContext.setLogLevel("WARN")
//读取json文件生成DataFrame
val sanguoDF: DataFrame = spark.read.format("json").load("./dataset/sanguo.json")
//把结果写入parquet
sanguoDF.write.parquet("./dataset/parquet/sanguo.parquet")
/**
* 读取刚刚写入的parquet文件
*
*/
val sgDF: DataFrame = spark.read.parquet("./dataset/parquet/sanguo.parquet")
//打印schema
sgDF.printSchema()
sgDF.show()
//释放资源
spark.stop()
}
}
上述代码中,通过读取json文件写入parquet文件:
2.分区发现(Partition Discovery)
表分区是一种常见的优化方法,比如Hive中就提供了分区表的特性。在一个分区表中,不同分区的数据通常是存储在HDFS上不同的目录中,分区列的值通常就包含在了分区目录的目录名中。SparkSQL中的parquet数据源,支持自动根据目录名推断出分区信息。例如,如果将人口数据存储在分区表中,并且使用性别和国家作为分区列。那么目录结构可能如下所示:
path
└── to
└── table
├── gender=male
│ ├── ...
│ │
│ ├── country=US
│ │ └── data.parquet
│ ├── country=CN
│ │ └── data.parquet
│ └── ...
└── gender=female
├── ...
│
├── country=US
│ └── data.parquet
├── country=CN
│ └── data.parquet
└── ...
如果将 path/to/table传入SparkSession.read.parquet()或SparkSession.read.load()方法,那么SparkSQL就会自动根据目录的结构,推断出分区信息是gender和country。即使数据文件中只包含了两列值,name和age,但是Spark SQL返回的DataFrame,调用printSchema()方法时,会打印出四个列的值:name,age,country,gender。这就是自动分区推断的功能。
此外,分区列的数据类型,也是自动被推断出来的。目前,Spark SQL仅支持自动推断出数字类型和字符串类型。有时,用户也许不希望Spark SQL自动推断分区列的数据类型。此时只要设置一个配置即可,
spark.sql.sources.partitionColumnTypeInference.enabled,默认为true,即自动推断分区列的类型,设置为false,即不会自动推断类型。禁止自动推断分区列的类型时,所有分区列的类型,就统一默认都是String。
3.元数据合并(Schema Merging)
如同ProtocolBuffer,Avro,Thrift一样,Parquet也是支持元数据合并的。用户可以在一开始就定义一个简单的元数据,然后随着业务需要,逐渐往元数据中添加更多的列。在这种情况下,用户可能会创建多个Parquet文件,有着多个不同的但是却互相兼容的元数据。Parquet数据源支持自动推断出这种情况,并且进行多个Parquet文件的元数据的合并。
因为元数据合并是一种相对耗时的操作,而且在大多数情况下不是一种必要的特性,从Spark 1.5.0版本开始,默认是关闭Parquet文件的自动合并元数据的特性的。可以通过以下两种方式开启Parquet数据源的自动合并元数据的特性:
- 读取Parquet文件时,将数据源的选项,mergeSchema,设置为true
- 将spark.sql.parquet.mergeSchema参数设置为true
import org.apache.spark.sql.{DataFrame, Dataset, SaveMode, SparkSession}
object SparkSqlSchemaMergeTest {
def main(args: Array[String]): Unit = {
val spark: SparkSession= SparkSession.builder()
.master("local")
.appName(SparkSqlSchemaMergeTest.getClass.getSimpleName)
.getOrCreate()
spark.sparkContext.setLogLevel("WARN")
//导入隐式转换
import spark.implicits._
//创建第一个DataFrame
val personSeq: Seq[(String, Int)] = Array(("风清扬", 55), ("任我行", 60)).toSeq
val personDF: DataFrame = spark.createDataset(personSeq).toDF("name", "age")
// personDF.printSchema()
// personDF.show()
//保存第一个DF到parquet文件
personDF.write.mode(SaveMode.Append).parquet("./dataset/parquet/person.parquet")
//创建第二个DataFrame
val personWithGenderSeq: Seq[(String, String)] = Array(("关羽", "男"), ("张飞", "男")).toSeq
val personWithGenderDF: DataFrame = spark.createDataset(personWithGenderSeq).toDF("name", "gender")
//保存第二个DF到parquet文件
personWithGenderDF.write.mode(SaveMode.Append).parquet("./dataset/parquet/person.parquet")
/**
* 首先,第一个DataFrame和第二个DataFrame的元数据是肯定不一样的
* 一个是包含了name和age, 而别一个是包含了name和gender
* 所以,期望将来读取这个parquet文件时只有三列name, age, gender, 实现自动合并元数据的功能
*
*/
//用mergeSchema的方式,读取person.parquet文件中的数据,并将元数据合并
val mergedPerosnDF: DataFrame = spark.read.format("parquet").option("mergeSchema", "true").load("./dataset/parquet/person.parquet")
//打印合并的schema的信息
mergedPerosnDF.printSchema()
mergedPerosnDF.show()
spark.stop()
}
}
相关推荐
- DIY桌面激光雕刻机#是时候展现真正的技术了
-
激光雕刻机。这期视频我们来看一下我是如何DIY一台桌面激光雕刻机。前几天在水池子边上发现了一台旧电脑,我看这电脑上还有一些东西可以利用到,比如光驱上面拆出了步进电机和滑轨。所以本期视频我将用这些废品去...
- 100000块多米诺骨牌拼成超级马里奥,这款机器人1天就完成了
-
智东西(公众号:zhidxcom)编译|王健恩编辑|高歌智东西7月30日消息,美国工程师兼YouTube博主MarkRober创造出了一个可以自动摆放多米诺骨牌的机器人。这个机器人被命名为D...
- 这个3D打印机器人可以在30秒内打开密码锁
-
密码锁看似很安全?也许曾经是,但现在你可要当心了!这是因为一台3D打印制造的机器人就可以在半分钟内打开你的密码锁。上周四,知名黑客萨米·卡姆卡尔(SamyKamkar)在自己的网站上公布了一个称之为...
- 密码锁也不安全 这款机器人30秒即可自动打开
-
大学生和体育爱好者们要注意了,千万不要再把贵重物品存放在公共储物柜里。因为现在已经出现了一种3D打印的机器人,据说世界上各大锁商推出的大部分密码锁,它都能够在30秒之内打开。著名黑客山米·卡姆卡(Sa...
- 硬件单片机模拟器,再也不用买开发板了...
-
#头条创作挑战赛#记得2006年在凌阳科技(sunplus)工作的时候,凌阳科技开发了自己的编译器/集成开发环境(unspIDE),那个IDE除了有keil那样的编辑器、编译器、链接器、调试器、下载...
- 3D打印机分哪几部分构成?(3d打印机结构组成及系统分析)
-
3D打印机的构成根据技术类型(如FDM、SLA、SLS等)有所不同,但以最常见的FDM(熔融沉积成型)3D打印机为例,其核心组成部分可分为以下模块:1.机械结构框架提供整体支撑和稳定性,常见材质为金...
- 初学者学伺服都需要什么?石家庄诺仕通
-
#初学者学伺服都需要什么?#对于初学者学习伺服系统,需要从...
- arduino(arduino是单片机吗)
-
arduino学习笔记arduino学习笔记1-什么是arduino?...
- 自制写字机,你需要的全套资料都在这里
-
小编之前发过《用废旧光驱制作迷你绘图仪》,很多读者都成功制作了自己的绘图仪。但是该方法的缺点是gcode要在inkscape软件中生成,然后通过grbl-controller这个没有界面的程序发送画图...
- 自己动手DIY3D打印机 瞬间效果出现桌面时,大家都惊呆了!
-
3D打印机,对数码产品比较了解的朋友都知道,但是真正玩过的童鞋可能就不多了。其实3D打印机离我们并不远,随着3D打印技术越来越成熟,3D打印机的学习资料也越来越多,这让自己动手做一台桌面3D打印机也成...
- 机器人仅用24小时将十万块多米诺骨牌拼出马里奥,创下世界纪录
-
十万块多米诺骨牌倒下是个啥场面?等等,十万块?那得搭多久啊?...
- 如何制作一个机器人?(制作机器人的方法)
-
1.简单机械机器人(例如自动小车)2.智能机器人(带有人工智能或计算机视觉)3.工业机器人(用于生产自动化)4.人形机器人(类人结构,可以行走、对话)...
- CrowPi2树莓派4学习套件评测第1部分–开箱和首次启动
-
文章来源:CNXSoftware中文站2020年6月,我曾写过一篇关于深圳易科诺...
- 基于 Arduino UNO 的蓝牙汽车(arduino智能小车蓝牙控制app)
-
HC-05蓝牙模块HC-05是一款易于使用的蓝牙SPP模块,针对流畅的串行无线通信配置进行了优化。串口蓝牙模块是完全合格的蓝牙V2.0+EDR(增强数据速率)3Mbps调制,具有总2.4...
- 电机驱动设计方案带你初识机电一体化
-
在直流电机驱动电路的设计中,主要考虑以下几点:功能:电机是单向还是双向转动?需不需要调速?...