实验-hadoop开发环境部署
hadoop-0.20.2⾃带了eclipse插件,⽐如1.0.0和2.2.0就没有
1.windows下
1)把插件hadoop-0.20.2-eclipse-plugin.jar复制到eclipse⽬录下的plugins⽬录中;
hadoop安装详细步骤linux2)启动eclipse;
3) windown->preferences->Hadoop Map/Reduce
4)打开Map/Reduce视图
window->show view->Map/Reduce Location
5)配置hadoop
右键选择New Hadoop location
(名字随意、第⼀个是MR的地址和端⼝,第⼆个是HDFS的地址和端⼝,要配的和配置⽂件中的⼀样,特别注意User name⼀定要填Namenode的⽤户名,之前因为没注意,⼀直报错)
然后运⾏集,即可链接
如果链接不上
<1>.namenode的防⽕墙关掉(root⽤户);
<2>.关掉HDFS的⽤户检查
6)能查看HDFS上的⽂件说明HDFS链接成功了,再测试⼀下MR
<1>.新建⼀个hadoop⼯程
<2>.⾃⼰写个代码或者直接贴上wordcount的代码
<3>.运⾏。设置输⼊输出参数
这时出现问题:
windows中chmod这个命令,解决办法:安装cygwin,然后把它的安装⽬录bin⽬录设置到环境变量Path中就可以了
2.Linux下(这个要更简单点)
1)安装eclipse(省略)
2)安装hadoop插件、Map/Reduce Locations、Hadoop installation Directoy等
这个不需要配置Linux环境和不⽤关⼼⽤户问题。
3)测试wordcount也同上。
其中有个问题我没懂得就是在配置运⾏参数的时候不能直接⽤/input/ /output/,必须⽤hdfs://192.168.126.129:9000/in这样的全称
我看到别⼈的⽂档中可以,不知道是我哪⼉设置有问题还是他们在忽悠⼈

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。