猿问

为什么Apache Spark不适用于Java 10?

有什么技术原因导致spark 2.3无法与java 1.10一起使用(截至2018年7月)?

这是当我使用运行SparkPi示例时的输出spark-submit

我通过切换到Java8而不是这里提到的Java10来解决了这个问题。


九州编程
浏览 194回答 3
3回答

当年话下

通勤者在这里。支持Java 9+实际上是一项相当大的工作:SPARK-24417它也差不多完成了,应该为Spark 3.0做好准备,它应该可以在Java 8到11以及更高版本上运行。目的(我的目的)是在不打开模块访问权限的情况下使其正常工作。关键问题包括:sun.misc.Unsafe 用法必须删除或解决引导类加载器的结构更改Scala对Java 9+的支持大量依赖关系更新可与Java 9+一起使用JAXB不再自动可用
随时随地看视频慕课网APP

相关分类

Java
我要回答