Impala安装部署(超详细!)
Impala安装部署
温馨提⽰:建议安装之前先给集快照。(安装Impala时,Impala会重新安装hadoop等组件,可能导致集混乱)
1.安装前提
集提前安装好hadoop,hive。
hive安装包scp在所有需要安装impala的节点上,因为impala需要引⽤hive的依赖包。
hadoop框架需要⽀持C程序访问接⼝,查看下图,如果有该路径下有这么⽂件,就证明⽀持C接⼝。
2.下载安装包、依赖包
3.虚拟机新增磁盘(可选)
由于下载的cdh5.14.包⾮常⼤,⼤概5个G,解压之后也最少需要5个G的空间。⽽我们的虚拟机磁盘有限,可能会不够⽤了,所以可以为虚拟机挂载⼀块新的磁盘,专门⽤于存储的cdh5.14.0-
包。
4.配置本地yum源信息
安装Apache Server服务器
yum -y install httpd
service httpd start
chkconfig httpd on
创建apache httpd的读取链接
ln -s /cloudera_data/cdh/5.14.0 /var/www/html/cdh5.14.0
确保linux的Selinux关闭
永久关闭:
[root@localhost ~]# vim /etc/selinux/config
SELINUX=enforcing 改为 SELINUX=disabled
重启服务reboot
将本地yum源配置的repo⽂件发放到所有需要安装impala的节点。
cd /pos.d/
scp 刚才编辑过的repo⽂件 从节点1:$PWD
scp 刚才编辑过的repo⽂件 从节点2:$PWD
5.安装Impala
主节点安装
yum install -y impala impala-server impala-state-store impala-catalog impala-shell
从节点安装
yum install -y impala-server
下载nc
yum -y install nc
6.修改Hadoop、Hive配置
需要在3台机器整个集上进⾏操作,都需要修改。hadoop、hive是否正常服务并且配置好,是决定impala是否启动成功并使⽤的前提。
6.1 修改hive配置mysql下载是安装包
可在主节点机器上进⾏配置,然后scp给其他2台机器。
vim /export/servers/hive/l(我的hive解压⽬录是在/export/servers下)
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node-1:3306/hive?createDatabaseIfNotExist=true</value> </property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value&sql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>hadoop</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<!--绑定运⾏hiveServer2的主机host,默认localhost-->
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node-1</value>
</property>
<!--指定hive metastore服务请求的uri地址-->
<property>
<name&astore.uris</name>
<value>thrift://node-1:9083</value>
</property>
<property>
<name&astore.client.socket.timeout</name>
<value>3600</value>
</property>
</configuration>
将hive安装包cp给其他两个机器。
cd /export/servers/
scp -r hive/ node02:$PWD
scp -r hive/ node03:$PWD
6.2 修改hadoop配置
所有节点创建下述⽂件夹
mkdir -p /var/run/hdfs-sockets
修改所有节点的l添加以下配置,修改完之后重启hdfs集⽣效
vim /export/servers/hadoop-2.6.0-cdh5.14.0/etc/l
<property>
<name>ad.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hdfs-sockets/dn</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>10000</value>
</property>
<property>
<name>dfs.abled</name>
<value>true</value>
</property>
ad.shortcircuit 打开DFSClient本地读取数据的控制,
dfs.domain.socket.path是Datanode和DFSClient之间沟通的Socket的本地路径。
把更新hadoop的配置⽂件,scp给其他机器。
cd /export/servers/hadoop-2.7.5/etc/hadoop
scp -l node-2:$PWD
scp -l node-3:$PWD
注意:root⽤户不需要下⾯操作,普通⽤户需要这⼀步操作。
给这个⽂件夹赋予权限,如果⽤的是普通⽤户hadoop,那就直接赋予普通⽤户的权限,例如:
chown -R hadoop:hadoop /var/run/hdfs-sockets/
因为这⾥直接⽤的root⽤户,所以不需要赋权限了。
6.3 复制hadoop、hive配置⽂件
impala的配置⽬录为**/etc/impala/conf**,这个路径下⾯需要拷贝l,l以及l。
cp-r/export/servers/hadoop-2.7.5/etc/l/etc/impala/l
cp-r/export/servers/hadoop-2.7.5/etc/l/etc/impala/l
cp-r/export/servers/hive/l/etc/impala/l
将conf这个⽬录远程拷贝到其它所有节点
7. 修改impala配置
7.1 修改impala默认配置
所有节点更改impala默认配置⽂件
vim /etc/default/impala
IMPALA_CATALOG_SERVICE_HOST=node03
IMPALA_STATE_STORE_HOST=node03
7.2 添加mysql驱动
通过配置**/etc/default/impala**中可以发现已经指定了mysql驱动的位置名字。
使⽤软链接指向该路径即可(3台机器都需要执⾏)
ln -s /export/servers/hive/lib/mysql-connector-java-5.1.32.jar /usr/share/java/mysql-connector-java.jar
7.3 修改bigtop配置
修改bigtop的java_home路径(3台机器)
vim /etc/default/bigtop-utils
export JAVA_HOME=${JAVA_HOME}
重启hadoop、hive
在主节点上执⾏下述命令分别启动hive metastore服务和hadoop。
cd /export/servers/hive
nohup bin/hive --service metastore & (&:在后台执⾏)
nohup bin/hive --service hiveserver2 &
cd /export/servers/hadoop-2.7.5/
sbin/stop-dfs.sh | sbin/start-dfs.sh
8. 启动、关闭impala服务
主节点启动以下三个服务进程
service impala-state-store start
service impala-catalog start
service impala-server start
从节点启动impala-server
service impala-server start
impala-shell命令参数
主节点输⼊impala-shell进⼊shell窗⼝
当看到主机名和端⼝号时,安装部署就完成了!

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。