继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续
感谢您的支持,我会继续努力的
赞赏金额会直接到老师账户
将二维码发送给自己后长按识别
微信支付
支付宝支付

win7下spark+hadoop安装

慕哥9229398
关注TA
已关注
手记 1099
粉丝 198
获赞 911

安装

http://www.cnblogs.com/eczhou/p/5216918.html
1.1、jdk安装
安装oracle下的jdk,我安装的是jdk 1.7,安装完新建系统环境变量JAVA_HOME,变量值为C:\Program Files\Java\jdk1.7.0_79,视自己安装路径而定。
同时在系统变量Path下添加C:\Program Files\Java\jdk1.7.0_79\binC:\Program Files\Java\jre7\bin

1.2安装python2.7

1.3 hadoop工具包安装

spark是基于hadoop之上的,运行过程中会调用相关hadoop库,如果没配置相关hadoop运行环境,会提示相关出错信息,虽然也不影响运行,但是这里还是把hadoop相关库也配置好吧。
1.3.1  去下载hadoop 2.6编译好的包hadoop 2.6编译好的包,我下载的是hadoop-2.6.0.tar.gz
1.3.2  解压下载的文件夹,将相关库添加到系统Path变量中:D:\hadoop-2.6.0\bin;同时新建HADOOP_HOME变量,变量值为:D:\hadoop-2.6.0

1.4spark安装

http://spark.apache.org/downloads.html网站下载相应hadoop对应的版本,我下载的是spark-1.6.0-bin-hadoop2.6.tgz,spark版本是1.6,对应的hadoop版本是2.6

1.5复制pyspark

将spark目录下的pyspark文件夹(D:\spark-1.6.0-bin-hadoop2.6\python\pyspark)复制到python安装目录C:\Python27\Lib\site-packages里

运行pyspark,安装pycharm

在cmd命令行下运行pyspark,然后运行pip install py4j安装相关库


webp

pyspark

安装pycharm(解释器设置为python2.7)开始编程



作者:analanxingde
链接:https://www.jianshu.com/p/9f6b06bad63f


打开App,阅读手记
0人推荐
发表评论
随时随地看视频慕课网APP