慕粉1473322817
weixin_慕圣8347624
不是哦,需要搭建hadoop运行环境,就可以使用HDFS和MapReduce了。我用的是VMware虚拟机装Linux系统,再用X-shell远程登录Linux root账号
PowerAndInsist
人在江湖第一个账号
用这个链接
wget https://archive.apache.org/dist/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
慕莱坞3296679
没配置好
qq_深都_03155654
甜蜜蜜69
修改hadoop-env.sh里的`export JAVA_HOME=/usr/lib/jvm/.../jre`
qq_GM_3
检查一下core-site.xml里面对不对
<property>
<name>fs.default.name</name>
<value>hdfs://127.0.0.1:9000</value>
</property>
Neker
因为你java环境变量没有配置。去etc/profile 配置文件去设置
Suwer
把./bin/hdfs 改完 hadoop
慕斯卡346669
JasonHans
无名氏2015
环境变量配置错误,我猜测是hadoop错了
qq_蚊香_0
依次执行命令 start-dfs.sh start-yarn.sh
试试
菜鸟小白2_0
jdk应该不是系统自带而是自己安装才对吧.
qq_时间的残影_0
这个报错是版本不匹配,网上百度一下相对应的版本
qq_子月_0
没有连接上服务器,检查一下服务器
qq_子月_0
已解决,Start-all.sh命令在sbin目录下,我切换到sbin目下后输入start-all.sh提示command not found,即root@abc:/opt/hadoop-2.9.1/sbin# start-all.sh报错。而在hadoop-2.9.1目录下输入sbin/start-all.sh命令却正确了,即root@abc:/opt/hadoop-2.9.1# sbin/start-all.sh正确。(ps:root@abc:/opt/hadoop-2.9.1/sbin# start-all.sh root@abc:/opt/hadoop-2.9.1# sbin/start-all.sh 两者的区别谁知道呢?)
qq_子月_0
到bin下面启动去
慕工程7439426
你先尝试直接执行java命令,确保环境变量配置对了,如果可以确保/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.181-2.6.14.8.el7_5.x86_64/bin/java这个文件存在,你在检查一下是否是因为权限问题,没有权限访问这个文件
qq_子月_0
课程里的是hadoop1.2版本,你的这个是hadoop2.9版本的,目录结构变了。conf那些文件在etc/hadoop/下面
1015338554
cd /hadoop/name
胡离
翻译一下,客户端版本和服务端版本不同,网上有修改配置的自己查一下
胡离
permission denied,说明当前你使用的用户不具备操作的权限,建议切换到至合适权限的用户或root用户。
慕粉3199054
是不是在sbin目录下执行的?
./start-all.sh
豆腐胖三斤
不清楚 我用的老师的版本
慕粉0829469430
都解决了,是我的自己的Linux基础太差
慕粉0829469430
下载之后安装包是保存的
慕九州1562494
配置文件可能是在解压缩之后的 hadoop-3.1.0/etc/hadoop/ 下面
慕粉3475047
你下的是SRC源码包,这个是没有编译过的,你得自己编译才行。按照教程你应该下的是带tar.gz后缀的二进制文件