lzth.net
当前位置:首页 >> HADoop执行worDCount程序没有输出 >>

HADoop执行worDCount程序没有输出

你的截图里都说了 没找到输入文件 所以任务失败了 你看看你的hdfs下的/user/hadoop/input/hadoop文件夹 一般跑例程都直接放在input下

可能是输入的源数据格式不规范

hadoop jar wordcount.jar input output 这个作用就是获取输入和输出的参数,如果没有这两个参数就会进if判断 程序就会退出,不会往下进行了.

要么自己编译,要么用自带的hadoop的eclipse的插件,然后配置相应的地址和端口,就可以运行了

可以试下启动JVM时,在java命令中添加java.library.path属性:-Djava.library.path=$HADOOP_INSTALL/lib/native/Linux-amd64-64/ Linux可以添加系统属性:export LD_LIBRARY_PATH=$HADOOP_INSTALL/lib/native/Linux-i386-32/

注意流程: ./hadoop namnode -format ./start-all.sh 然后是将文件上传 ./hadoop dfs -put input in 最后才是运行例子,祝你好运

你仿照书上写的wordcount代码其实是一个mapreduce程序,其运行在hadoop平台上,按照正常的开发实现步骤,应该现在linux搭建hadoop集群或者伪分布,然后当你在Eclipse里面写了mapreduce程序之后,将你的项目打成jar包之后再hadoop集群里面运行,...

你用绝对路径吧

本地地址是127.0.0.1,不要用local代替,计算机识别不了 把/etc/hostname文件中的主机名加入到/etc/hosts文件中,或者就直接用127.0.0.1

跟书上一致不能代表你的代码没问题,看应该是只运行了Map任务,而没有运行Reduce任务,你的代码是怎么写的,也有可能是有个this有空格,导致无法合并,检查下你的输入文件

网站首页 | 网站地图
All rights reserved Powered by www.lzth.net
copyright ©right 2010-2021。
内容来自网络,如有侵犯请联系客服。zhit325@qq.com