mdsk.net
当前位置:首页 >> hADoop伪分布搭建%%%%%hADoop Fs %ls 出现no suCh ... >>

hADoop伪分布搭建%%%%%hADoop Fs %ls 出现no suCh ...

卧槽,突然发现脱离hadoop一段时间原来信手拈来的东西已经忘记得七七八八了,但是你这个问题还是很好解释的,首先,hadoop fs -ls 少了一个参数,应该要写成: hadoop fs -ls [你想要显示的路径] ,比如 hadoop fs -ls /root

看你这两个命令写的感觉有问题,第一个hdfs dfs -lsls 这是啥?应该是hadoop fs -ls 目录;第二个那个xmkdir能换个名字吗

查看logs的namenode日志.可能的问题:1.防火墙要关闭 2.namenode的安全模式关闭 3.文件的权限问题,更改权限.

你命令只是些hadoop fs -mkdir input吗,hadoop fs -ls /看看是否可以正常输出,同时确定/usr/bin/python3是什么目录,是否出现在环境变量中

看看你/cygdrive/c/Program Files文件夹存在吗?怀疑你的java_home路径写错了,确认是“/cygdrive/c/Program Files/Java/jdk1.7.0_67/jre/bin”吗?.“/cygdrive/c/Program”这个文件夹都不存在,下面的java路径更不正确了吧.

启动hdfs,mr和yarn服务看是否能够正常启动,然后用hadoop fs -ls /是否能够正常执行

第一步: 安装jdk 因为 hadoop 运行必须安装 jdk 环境,因此在安装好 linux 后进入系统的第一步 便是安装 jdk ,安装过程和在 windows 环境中的安装步骤很类似,首先去oracle 官网 去下载安装包,然后直接进行解压.我自己解压在路径 /usr/jvm

可能程序不兼容, 可以更换个版本试试.另外建议参考下程序对配置的要求.或者右键需要运行的程序 选择兼容性 用兼容模式运行试试.

namenode中只保存元数据,到datanode的系统里看看数据文件.也可以手动在配置文件中设置数据文件的路径,如:dfs.data.dir/home/hadoop/data

这个你可以通过Namenode的日志信息可以找到问题.但是分布式模式的的话一般只有Master这五个进程都会启动,Slave好像只会启动两个进程JobTracker和Tasktracker.Master启动了,Slave会自动启动.伪分布式模式也应该差不多.你看下conf文件下的master和slave文件,上面的地址对不对

相关文档
网站首页 | 网站地图
All rights reserved Powered by www.mdsk.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com