Spark scala模式未在加载时强制执行

我在 spark shell 上尝试了一个 Spark scala 示例,如下所示;


val myManualSchema = StructType(Array(StructField("DEST_COUNTRY_NAME", StringType, true), 

StructField("ORIGIN_COUNTRY_NAME",StringType

, true), StructField("count", LongType, nullable=false)))


val dfNew = spark.read.format("json").schema(myManualSchema).load("/test.json")


dfNew.printSchema()

我得到的输出如下;


root

|-- DEST_COUNTRY_NAME: string (nullable = true)

|-- ORIGIN_COUNTRY_NAME: string (nullable = true)

|-- count: long (nullable = true)

我期待该count专栏,nullable=false但它似乎没有被强制执行。但是,当我从这个创建一个新的 DataFrame 并在那里设置架构时,它就可以工作了。这就是我所做的;


val dfSchemaTest = spark.createDataFrame(dfNew.rdd,myManualSchema)


scala> dfSchemaTest.printSchema()

root

 |-- DEST_COUNTRY_NAME: string (nullable = true)

 |-- ORIGIN_COUNTRY_NAME: string (nullable = true)

 |-- count: long (nullable = false)

如果有人能在下面指出我在加载数据文件时未强制执行架构的错误,我将不胜感激。


qq_花开花谢_0
浏览 68回答 1
1回答

ITMISS

没有什么可以做的,因为可空性是由文件格式强制执行的。这正是 spark 所做的 - 如果数据源无法确保该列不为空,则DataFrame在读取时也不能。
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Java