hadoop搭建与eclipse开发环境设置
――罗利辉
1. 前言
1.1 目标
目的很简单,为进行研究与学习,部署一个hadoop运行环境,并搭建一个hadoop开发与测试环境。
具体目标是:
✓ 在ubuntu系统上部署hadoop
✓ 在windows 上能够使用eclipse连接ubuntu系统上部署的hadoop进行开发与测试
1.2 软硬件要求
硬件要求: | 三台普通PC。 | 当然使用虚拟机也可以,本环境搭建也是VMWare6.5虚拟机上进行的。 |
软件要求: | 操作系统:ubuntu 11.04 server。 Hadoop版本: hadoop-0.20.2 Eclipse版本:3.3.2 Java版本:1.6.0_26(必须1.6以上) | |
注意:
Hadoop版本和Eclipse版本请严格按照要求。
现在的hadoop最新版本是hadoop-0.20.203,我在windows上使用eclipse(包括3.6版本和3.3.2版本)连接ubuntu上的hadoop-0.20.203环境一直没有成功。但是开发测试程序是没有问题的,不过需要注意权限问题。
如果要减少权限问题的发生,可以这样做:ubuntu上运行hadoop的用户与windows上的用户一样。
1.3 环境拓扑图
主机名 | Hadoop角 | Hadoop jps命令结果 | Hadoop用户 | Hadoop安装目录 |
ubuntu | Master slaves | NameNode DataNode JobTracker TaskTracker SecondaryNameNode | 创建相同的用户的组名:hadoop。 安装hadoop-0.20.2时使用hadoop用户,并且hadoop的文件夹归属也是hadoop:hadoop | /opt/hadoop |
Ubuntu1 | slaves | DataNode TaskTracker | ||
Ubuntu2 | slaves | DataNode TaskTracker | ||
Windows | 开发测试环境 | 安装了jdk与eclipse,本身不需要安装hadoop,但是需要hadoop安装包下面的jar包。 | ||
注意:ubuntu既是NameNode又是DataNode,同时也是JobTracker。
2. Ubuntu 安装
安装ubuntu11.04 server系统,具体略。
我是先在虚拟机上安装一个操作系统,然后把hadoop也安装配置好了,再克隆二份,然后把主机名与IP修改,再进行主机之间的SSH配置。
如果仅作为hadoop的运行与开发环境,不需要安装太多的系统与网络服务,或者在需要的时候通过apt-get install进行安装。不过SSH服务是必须的。
3. Hadoop 安装
以下的hadoop安装以主机ubuntu下进行安装为例。
3.1 下载安装jdk1.6
安装版本是:jdk-6u26-linux-i586.bin,我把它安装拷贝到:/opt/jdk1.6.0_26
3.2 下载解压hadoop
安装包是:hadoop-0.20.。
$ tar –zxvf hadoop-0.20. $ mv hadoop-0.20.2 /opt/hadoop |
3.3 修改系统环境配置文件
切换为根用户。
● 修改环境配置文件/etc/profile,加入:
export JAVA_HOME=/opt/jdk1.6.0_26 export JRE_HOME=/opt/jdk1.6.0_26/jre export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH export HADOOP_HOME=/opt/hadoop export PATH=$HADOOP_HOME/bin:$PATH |
● 修改地址解析文件/etc/hosts,加入
192.168.69.231 ubuntu 192.168.69.232 ubuntu1 192.168.69.233 ubuntu2 |
3.4 修改hadoop的配置文件
切换为hadoop用户。
● 修改hadoop目录下的conf/hadoop-env.s件
加入java的安装根路径:
export JAVA_HOME=/opt/jdk1.6.0_26 |
● 把hadoop目录下的l文件修改成如下:
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name&p.dir</name> <value>/hadoop</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://ubuntu:9000</value> <description>The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation. The uri's scheme determines the config property (fs.SCHEME.impl) naminghadoop安装详细步骤linux the FileSystem implementation class. The uri's authority is used to determine the host, port, etc. for a filesystem.</description> </property> <property> <name>lude</name> <value>excludes</value> </property> <property> <name>dfs.name.dir</name> <value>/hadoop/name</value> <description>Determines where on the local filesystem the DFS name node should store the name table. If this is a comma-delimited list of directories then the name table is replicated in all of the directories, for redundancy. </description> </property> </configuration> |
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论