hadoop2.6.0安装
搭建hadoop2.6.0开发环境
前言:因为没有物理机器要测试,所以学习如何构建Hadoop环境并在本地笔记本中创建三个Linux虚拟机是一个不错的选择。安装VMware并准备三台相同的Linux虚拟机Linux虚拟机ISO:
虚拟机平台服务器版本:
PS:关于软件,软件描述如下:
本地笔记本:t420,8g内存,64位操作系统,配置如下:
1.安装虚拟机
1.1安装vmware-workstation,一路下一步即可,导入centos,使用iso方式搭建linux虚拟机
2.安装Linux虚拟机
2.1安装vmware-workstation完成后,选择新建虚拟机,导入centos,使用iso方式搭建linux虚拟机
选择路径
选择多核
选择2G内存
选择桥连接的方式
选择磁盘I/O模式
创建全新的虚拟机
选择磁盘类型
虚拟机文件存储方式
设置虚拟机文件的存储路径
完成打开,报错如下:
无法准备安装说明:\\software\\wmware\\centos-6.5-x86 64-bin-dvd1。iso。确保您正在使用有效的Linux安装光盘。如果出现错误,您可能需要安装VMWareWorkstation。
原因是笔记本没有开启虚拟机功能选项,重启电脑,然后按住f1键,进入bios设置,到virtual选项,设置成enable,然后保存退出。
打开时出现错误消息:EDD:Error8000ReadingSector 2073976
原因是:vmwareworkstation9,版本太老,升级到10版本,就ok了。
设置虚拟机网络连接(固定IP),并将连接模式设置为NAT模式
看下是否能上外网,左键点击笔记本右下角无线图标,再点击打开网络与共享中心,
关闭vmnet01,只保留vmnet08,然后使用默认的ipv4的ip地址192.168.52.1
像两颗豌豆一样克隆另一颗。
在虚拟机name02上右键弹出菜单里点击”管理(m)”,然后点击右边下拉菜单”克隆(c)”,如下所示:
继续下一步
选择创建完成克隆(f)
设置名称和位置,然后单击finish
开始复制,时间较长,耐心等待,如下
单击“关闭”按钮以完成克隆。
在使用同样的办法,clone另外一台data02出来,如下图所示:
好的,就像两个豌豆一样,最后3个虚拟机已经建立起来了。他们可以构建Hadoop
环境并开始学习大数据。
3.安装jdk7
3.1下载JDK安装包
安装版本:
3.2减压和安装
我们把jdk安装到这个路径:/usr/lib/jvm如果没有这个目录,我们就新建一个目录cd/usr/lib
sudomkdirjvm
将复制到linux桌面tarzxvfjdk-7u60-linux-
-c/usr/lib/jvm
3.3配置环境变量
(1)只对当前用户生效vim~/.bashrc
exportjava_u;home=/usr/lib/jvm/jdk1。
虚拟机linux安装jdk7.0_60;exportjre_uuhome=${java_uhome}/jre
exportclasspath=.:${java_home}/lib:${jre_home}/libexportpath=${java_home}/bin: $path
保存并退出,然后输入以下命令使其生效
source~/.bashrc
(2)对所有用户有效(root登录)VIM/etc/profile
exportjava_home=/usr/lib/jvm/jdk1.7.0_60exportjre_home=${java_home}/jre
exportclasspath=.:
${java_home}/lib:${jre_home}/libexportpath=${java_home}/bin:$path
保存退出,然后输入下面的命令来使之生效source/etc/profile
3.4配置默认的JDK(通常可以省略此步骤)
由于一些linux的发行版中已经存在默认的jdk,如openjdk等。所以为了使得我们刚才安装好的jdk版本能成为默认的jdk版本,我们还要进行下面的配置。执行下面的命令:
sudoupdate替代方案——安装/usr/bin/javajava/usr/lib/jvm/jdk1。
7.0_60/bin/java300sudoupdate替代方案——安装
/usr/bin/javacjavac/usr/lib/jvm/jdk1。7.0_60/bin/javac300注意:如果在上述两个命令中不到路径,只需重新启动机器并重复上述两行代码。
执行下面的代码可以看到当前各种jdk版本和配置:sudoupdate-alternatives--configjava
3.5测试
在linux命令行,使用java-version来查看java版本,显示结果如下:
4.安装Hadoop 2 6
4.1系统架构
集角:
主机名ip地址角
名字01192。168.85.128namenode、resourcemanager(jobtracker)data01192。168.85.129datanode、nodemanager(tasktracker)data02192。168.85.130数据节点、节点管理器(tasktracker)系统环境:
centos6.5x64vmwarevpc
硬盘:30g内存:2G
4.2环境准备
a、系统设置:关闭iptables:
/sbin/serviceiptablesstop/sbin/chkconfigiptablesoff关闭selinux:setenforce0
塞德\
vi/etc/hosts
#本地主机。Localdomain=data01#或name01,data02192 168.52.128name01192。168.52.129data01192。168.52.130data02
hostnamename01;hostnamedata01;hostnamedata02;设置节点名称,所有节点执行
b、用户目录创建:
创建hadoop运行账户:
使用root用户登录到所有计算机后,创建一个Hadoop用户useraddhadoop。//添加一个用户passwdhadoop。//修改密码
#sudouseraddcs/bin/bashcd/home/hadoopcmhadoopcghadoopcgadmin//添加一个zhm 用户,此用户属于hadoop用户组,且具有admin权限。#suhadoop//切换到zhm用户中
c、创建与Hadoop相关的目录:
定义需要数据及目录的存放路径,定义代码及工具存放的路径mkdir-
p/home/hadoop/srcmkdir-p/home/hadoop/tools
chown rhadoop。hadoop/home/hadoop/*
d.定义数据节点存放的路径到跟目录下的hadoop文件夹,这里是数据节点存放目录需要有足够的空间存放
mkdir-p/data/hadoop/hdfsmkdir-p/data/hadoop/tmpmkdir-
p/var/logs/hadoopchmod-r777/data/hadoop
chown-rhadoop.hadoop/data/hadoop/*chown-rhadoop.hadoop/var/logs/hadoop

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。