我使用的是 Windows 8.1 操作系统。我安装了apache spark,然后安装了Java JDK。我在windows 中使用git bash。我在我的git bash 中有以下设置。.bash_profile
export SPARK_HOME="/c/tools/spark-2.3.1-bin-hadoop2.7"
export PATH="$SPARK_HOME/bin:$PATH"
export JAVA_HOME="/c/Program Files (x86)/Java/jdk1.8.0_181/"
当我尝试调用pyspark时,出现如下错误。
/c/tools/spark-2.3.1-bin-hadoop2.7/bin/pyspark: line 45: python: command not found 错误: 找不到或加载主类 org.apache.spark.launcher.Main
我尝试在路径“/c/tools/spark-2.3.1-bin-hadoop2.7/bin/”中运行spark-shell。仍然得到同样的错误。
请帮助我让 pyspark 在我的机器上运行。
相关分类