不是哦,需要搭建hadoop运行环境,就可以使用HDFS和MapReduce了。我用的是VMware虚拟机装Linux系统,再用X-shell远程登录Linux root账号
用这个链接
wget https://archive.apache.org/dist/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
没配置好
修改hadoop-env.sh里的`export JAVA_HOME=/usr/lib/jvm/.../jre`
检查一下core-site.xml里面对不对
<property>
<name>fs.default.name</name>
<value>hdfs://127.0.0.1:9000</value>
</property>
因为你java环境变量没有配置。去etc/profile 配置文件去设置
把./bin/hdfs 改完 hadoop
环境变量配置错误,我猜测是hadoop错了
jdk应该不是系统自带而是自己安装才对吧.
没有连接上服务器,检查一下服务器
已解决,Start-all.sh命令在sbin目录下,我切换到sbin目下后输入start-all.sh提示command not found,即root@abc:/opt/hadoop-2.9.1/sbin# start-all.sh报错。而在hadoop-2.9.1目录下输入sbin/start-all.sh命令却正确了,即root@abc:/opt/hadoop-2.9.1# sbin/start-all.sh正确。(ps:root@abc:/opt/hadoop-2.9.1/sbin# start-all.sh root@abc:/opt/hadoop-2.9.1# sbin/start-all.sh 两者的区别谁知道呢?)
到bin下面启动去
你先尝试直接执行java命令,确保环境变量配置对了,如果可以确保/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.181-2.6.14.8.el7_5.x86_64/bin/java这个文件存在,你在检查一下是否是因为权限问题,没有权限访问这个文件
课程里的是hadoop1.2版本,你的这个是hadoop2.9版本的,目录结构变了。conf那些文件在etc/hadoop/下面
cd /hadoop/name
翻译一下,客户端版本和服务端版本不同,网上有修改配置的自己查一下
permission denied,说明当前你使用的用户不具备操作的权限,建议切换到至合适权限的用户或root用户。
是不是在sbin目录下执行的?
./start-all.sh
不清楚 我用的老师的版本
都解决了,是我的自己的Linux基础太差
下载之后安装包是保存的
配置文件可能是在解压缩之后的 hadoop-3.1.0/etc/hadoop/ 下面
你下的是SRC源码包,这个是没有编译过的,你得自己编译才行。按照教程你应该下的是带tar.gz后缀的二进制文件
同问,求答案
https://blog.csdn.net/coffeeandice/article/details/78879151
设置免密登陆