猿问

如何在远程 Spark 集群上运行本地 Python 脚本?

我有一个在 Jupyter notebook 中运行的本地 Python 脚本,它在我的机器上运行的本地 Spark 集群上运行作业:

sc = pyspark.SparkContext(appName="test")
sqlCtx = pyspark.SQLContext(sc)

如何将其更改为连接字符串以在 AWS 中的 EMR Spark 集群上运行作业?

这是可能的还是我必须spark-submit在 SSH 进入远程集群时使用该功能?


慕尼黑5688855
浏览 184回答 2
2回答
随时随地看视频慕课网APP

相关分类

Python
我要回答