如何运⾏Hadoop⾃带的Wordcount案例
1,在运⾏这个案例之前,⾸先启动你的Had oop集,我的Had oop集搭建的是完全分布式,三台机器,保证都启动起来
2,进⼊Had oop的安装⽬录
3,重点来了,如果你不知道这个e x am p le s这个j ar包在哪⾥的情况下,可以在had oop的安装⽬录执⾏
find ./ -name example.jar
hadoop分布式集搭建image.png
4,上传相关⽂件到hd f s上⾯
hdfs dfs -put / /wordcount/input
第⼀个路径为linux⽬录,第⼆个路径为hdfs路径
5,执⾏Wor d count,这个就能够看出来这个⾥⾯有左⾯这么多⽅法,然后到我们想要的Wor d count,后⾯提⽰Wor d count需要⼀个输⼊路径,输⼊路径为计算的位置
hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar
image.png
6,加上wor d count和输⼊路径
[root@master hadoop-2.9.2]# hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount
/wordcount/input
image.png
提⽰还需要输出路径
7,加上输出路径,完美运⾏,这个输出路径也是hd f s的路径
hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.2.jar wordcount /wordcount/input/
/wordcount/output
8,上⾯有⼀点要注意的是j ar包位置⽤的是./,这个是当前⽬录的意思,如果你位置不是在had oop安装⽬录,这个就要写绝对路径了.
9,上⾯教程虽然繁琐,但是是为了教你怎么分析问题,⽽不是简单地cv模式,没有意义.

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。