本文记录zookeeper+hadoop+hbase+kafka+storm集的搭建过程。
准备工作
1. 硬件环境
3台物理主机
192.168.0.191 – dc01
192.168.0.192 – dc02
192.168.0.193 – dc03
系统全部为Ubuntu16.04
3台物理主机
192.168.0.191 – dc01
192.168.0.192 – dc02
192.168.0.193 – dc03
系统全部为Ubuntu16.04
2. 软件环境
1) jdk1.8.0_121
2) zookeeper-3.4.10
3) hadoop-2.6.5
4) hbase-1.2.6
5) kafka_2.11-0.10.2.0
1) jdk1.8.0_121
2) zookeeper-3.4.10
3) hadoop-2.6.5
4) hbase-1.2.6
5) kafka_2.11-0.10.2.0
6) apache-storm-1.1.0
jdk的安装在此不做赘述,有疑问可自行百度。
3. 设置主机名
三台机器都需设置,后面所有操作都通过主机名连接。
三台机器都需设置,后面所有操作都通过主机名连接。
sudogedit/etc/sysconfig/network
ip为192.168.0.191的机器修改为如下内容:
NETWORKING=yes
HOSTNAME=dc01
其他两台机器分别设置为dc02和dc03。
4. 修改host文件
sudogedit /etc/hosts
在末尾追加如下内容:
192.168.0.191 dc01
192.168.0.192 dc02
192.168.0.193 dc03
三台机器做相同操作。
5. 设置ssh免密码登录
以dc01为例,执行以下命令
以dc01为例,执行以下命令
1. sssh-keygen -t rsa
2. # 连续三次回车,即在本地生成了公钥和私钥,不设置密码
3. ssh-copy-id dc01
4. # 按提示输入dc01的密码
5. ssh-copy-id dc02
6. # 按提示输入dc02的密码
7. ssh-copy-id dc03
8. # 按提示输入dc03的密码
dc02和dc03重复dc01的操作,设置完成后任意两台机器之间不需要密码可直接登录,例如从dc01登录到dc03,只需在dc01输入”ssh dc03”即可。
开始安装
所有软件安装目录为/usr/local/
安装zookeeper
下载zookeeper安装文件zookeeper-3.4.到/usr/local/下
执行以下命令:
执行以下命令:
#解压文件
tar -zxvf zookeeper-3.4.10.
#修改文件夹名称
mv zookeeper-3.4.10 zookeeper
cd zookeeper/
#zookeeper配置文件名为zoo.cfg
cpconf/zoo_sample.cfgconf/zoo.cfg
∙ 7
编辑zoo.cfg
vimconf/zoo.cfg
修改后文件内容如下:
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/usr/local/zookeeper/data
dataLogDir=/usr/local/zookeeper/log
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
# /doc/current/zookeeperAdmin.html#sc_maintenance
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=dc01:2888:3888
server.2=dc02:2888:3888
server.3=dc03:2888:3888
在zookeeper下新建data目录
mkdirdata
新增myid文件,该文件内容与zoo.cfg最后三行内容有关,server.x=host:port1:port2,myid中写入的就是x对应的值,不同主机文件内容不同。
echo'1'> data/myid
使用scp命令将dc01上已配置好的zookeeper文件复制到其他两台机器
scp -r /usr/local/zookeeper root@dc02:/usr/local/zookeeper
scp -r /usr/local/zookeeper root@dc03:/usr/local/zookeeper
操作完成后将dc02上的myid文件内容改为2,dc03中的myid内容改为3。
启动zookeeper
$zookeeper_home/bin/zkServer.sh start
三个节点做同样操作,启动完成后可使用”zkServer.sh status”查看运行状态。
安装hadoop
hbase基于hdfs存储,所以安装hbase前必须先安装hadoop,不同版本hbase对应的hadoop版本不同,安装前请确认兼容性。
下面开始安装:
在/usr/local/下新建hadoop目录,hadoop下再创建hdfs目录。
下面开始安装:
在/usr/local/下新建hadoop目录,hadoop下再创建hdfs目录。
cd /usr/local/
mkdir -p hadoop/hdfs
下载hadoop安装文件hadoop-2.6.,放入hadoop目录下
tar -zxvf hadoop-2.6.5.
修改配置文件
cd hadoop-2.6.5/etc/hadoop/
需要修改的配置文件有四个,hadoop-env.sh、l、l、slaves,因为暂时不使用map-reduce所以不用配置yarn相关文件。
1、修改hadoop-env.sh
sudogedit hadoop-env.sh
修改JAVA_HOME为jdk安装路径(如果没有则添加一行)
export JAVA_HOME=/usr/local/java/jdk1.8.0_121
2、修改 l
sudogedit core-site.xml
修改后内容如下:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://dc01:9000</value>
<description>HDFS的URI,文件系统://namenode标识:端口号</description>
</property>
<property>
<name>p.dir</name>
<value>/usr/local/hadoop/tmp</value>
<description>namenode上本地的hadoop临时文件夹,目录无需预先创建,会自动创建</description>
</property>
</configuration>
3、修改l
sudogedit hdfs-site.xml
修改后内容如下:
<configuration>
<property>hadoop分布式集搭建
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
<description>namenode上存储hdfs名字空间元数据,目录无需预先创建,会自动创建</description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
<description>datanode上数据块的物理存储位置,目录无需预先创建,会自动创建</description>
</property>
<property>
<name>plication</name>
<value>2</value>
<description>副本个数,配置默认是3,应小于datanode机器数量</description>
</property>
</configuration>
4、修改slaves
sudogedit slaves
将原来的localhost改成如下内容:
dc02
dc03
修改完成后将安装目录copy到其他两台机器上:
scp -r /usr/local/hadoop root@dc02:/usr/local/hadoop
scp -r /usr/local/hadoop root@dc03:/usr/local/hadoop
启动集(只需在dc01操作)
第一次启动时需要先格式化,以后无需进行此操作。
第一次启动时需要先格式化,以后无需进行此操作。
cd /usr/local/hadoop/hadoop-2.6.5
#格式化
./bin/hdfsnamenode -format
#启动集
./sbin/start-dfs.sh
启动成功后可使用jps命令查看,dc01有NameNode和SecondaryNameNode进程,dc02和dc03有DataNode进程则集启动成功。
安装hbase
集机器划分:dc01作为NameNode节点,dc02和dc03作为DataNode节点。
下载hbase安装文件并放入/usr/local/目录下
1、解压并修改文件夹名称:
下载hbase安装文件并放入/usr/local/目录下
1、解压并修改文件夹名称:
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论