保时捷那几款
分布式存储,分块存储的
慕仰2907144
百度搜到原因是:操作系统和JVM都是32bit的,但是Hadoop的native lib是64bit。因此不兼容,需要去下载hadoop 32bit的native lib库。然后替换当前64bit的库文件。请问哪位有链接文件呢,hadoop2.10.0的。谢谢
慕仔7049465
啥也没有就是你hdfs上就没数据咯。 回复上面同学: 如果添加了环境变量是不需要./的 没添加环境变量才需要./ 而且在其他目录会直接报错哦
慕粉1474071780
你hadoop启动时不是用root用户启动的吧?你可以修改hdfs /yyq的权限为777或者切换到hadoop的启动用户进行操作。
慕UI7213775
使用bash hdfs dfs -ls / 或者 ./hdfs dfs -ls /
我视频里面能直接使用hdfs命令是因为我添加了HADOOP_HOME的环境变量,并将其bin目录添加到了PATH内。
你也可以在~/.bashrc里面添加
export HADOOP_HOME=xxxx
export PATH=xxx/bin:$PATH
音上
我的是ubuntu14.04 自己用习惯了 安装东西太多懒得升级。 可以选用最新的,祝顺利~
音上
http://www.powerxing.com/install-hadoop/
http://www.powerxing.com/install-hadoop-cluster/
看过的最好的教程,没有之一。
两个网站一起看,都是一个人写的,但是有先后顺序。
一次搭建成功。
慕少7365235
你给出的日志是warning不影响命令使用,如果还不能使用有没有更详细的日志贴出来?
不逃课
你的目录不对啊 hdfs可执行文件在你hadoop的home下面的bin目录下!
慕粉1405043738
使用shell命令的copyFromLocal 或者是hdfs3的api put命令。
hdfs dfs -copyFromLocal srcPath distPath