如果你们中的某个人可以指导我将 scala(或 java)结果集转换为 Spark Dataframe,我会很高兴。
我不能使用这个符号:
val jdbcDF = spark.read
.format("jdbc")
.option("url", "jdbc:mysql://XXX-XX-XXX-XX-XX.compute-1.amazonaws.com:3306/")
.option("dbtable", "pg_partner")
.option("user", "XXX")
.option("password", "XXX")
.load()
所以在向我推荐这个类似的问题之前,请考虑一下。
我不能使用该符号的原因是我需要使用我正在使用的当前版本的 spark (2.2.0) 中不存在的 jdbc 配置,因为我想使用最近使用的“queryTimeout”选项添加到 spark 2.4 版,所以我需要在 ResultSet 中使用它。
任何帮助将不胜感激。
相关分类