从 Web UI 终止 Apache spark 作业并没有终止其 Python 子进程

pyspark 代码编写使用 subprocess.Popen(command) 调用另一个 python 作业

试图从 spark master web UI http://localhost:8080手动杀死 Sparkcontext并成功杀死

当 python 子进程作为 python 进程触发并在工作节点中运行时。

使用 Redhatlinux

如果我杀死 pyspark sparkcontext,如何杀死 python 子进程?


慕码人2483693
浏览 166回答 1
1回答
打开App,查看更多内容
随时随地看视频慕课网APP

相关分类

Python