windows⼦系统(wsl)Ubuntu16.04下安装hadoop 使⽤命令查看系统版本
sudo lsb_release -a
1.准备⼯作
1.1 创建hadoop⽤户
01:先打开终端(Ctrl+Alt+T)
键⼊指令:
sudo useradd -m hadoop -s /bin/bash
02:设置⽤户hadoop的登录密码
sudo passwd hadoop
提⽰会要求输⼊两次密码(键⼊密码不会显⽰),这⾥我就⽤的hadoop。
03:为⽤户hadoop增加管理员权限
sudo adduser hadoop sudo
(虽然增加了管理员权限,但后⾯有些地⽅还是需要进⼊root⽤户进⾏操作)
1.2 更新apt
接下来注销,登录到hadoop⽤户下。
为了安装⼀些软件,我们需要更新apt。
sudo apt-get update
1.3 安装SSH并配置SSH⽆密码登录
之前配置过hadoop的同学们,肯定是知道这个的。
⽹上是说Ubuntu已经⾃带了SSH client,还需要安装SSH server
sudo apt-get install openssh-server
这⾥安装完后如果重启了wsl下并不会启动sshd,必须⼿动启动
sudo service ssh restart
这⾥可⽤添加到 vi /etc/profile ⾥启动时可以⾃动运⾏
使⽤命令登录本机
这样做了,我们每次登录还是会需要输⼊密码。
接下来配置SSH⽆密码登录。
SSH设置和密钥⽣成
SSH设置需要在集上执⾏不同的操作,如启动,停⽌和分布式守护shell操作。进⾏⾝份验证不同的Hadoop⽤户,需要⼀种⽤于Hadoop 的⽤户提供的公钥/私钥对,并⽤不同的⽤户共享。
以下的命令被⽤于⽣成使⽤SSH密钥值对。复制公钥从id_rsa.pub为authorized_keys,并提供所有者,读写权限到authorized_keys⽂件。
# su hadoop
$ ssh-keygen -t rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
验证ssh
ssh localhost
接下来可以再次尝试ssh localhost,如若⽆需再次输⼊密码,既成功。
1.4 安装Java环境
01:下载和安装jdk
这⾥选择的版本是1.8.0_161
下载好后,到⽂件所在位置(以我的为例,在下载⽬录下)
1. cd ~/下载
2. mv ~/下载/ /usr/java //若提⽰权限不够,则进⼊root下操作
3. tar -xvf /usr/java/jdk-8u161-linux-x6
可以在对应的路径下到解压好的jdk⽂件
02:配置环境变量
vi /etc/profile
将如下环境变量写⼊⽂件的最后(i键,对⽂档开始编辑)
export JAVA_HOME=/usr/java/jdk1.8.0_161/
export CLASSPATH=/usr/java/jdk1.8.0_161/lib/*
保存,退出。(Esc--:wq)
接下来需要让环境变量⽣效:
source /etc/profile
检查是否配置正确:
java -version
还有⼀种安装⽅法可以参考:
这⾥安装完 java 在 /usr/lib/jvm/java-8-oracle ⾥
export JAVA_HOME=/usr/lib/jvm/java-8-oracle/
export CLASSPATH=/usr/lib/jvm/java-8-oracle/lib/*
2.安装Hadoop
到这⾥可以最新的hadoop
cd /usr/local/
wget mirrors.advancedhosters/apache/hadoop/common/hadoop-3.1.0/hadoop-3.1.
tar -vzxf hadoop-3.1.
mv hadoop-3.1.0 hadoop
cd hadoop
.
/bin/hadoop version
可以通过附加下⾯的命令在 vi /etc/profile⽂件中以设置 Hadoop 环境变量。
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
现在,应⽤所有更改到当前正在运⾏的系统。
source /etc/profile
3.Hadoop伪分布式配置
01. 配置l
vim /usr/local/hadoop/etc/l
<configuration>
<property>
<name&p.dir</name>
<value>file:/usr/local/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
02. 配置hadoop-env.sh
vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
到被注释掉的JAVA_HOME
03. 配置l
<configuration>
<property>
<name&plication</name>
<value>1</value>
</property>
ssh工具windows<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>
注:上⾯的⽂件,所有的属性值是⽤户定义的,可以根据⾃⼰的Hadoop的基础架构进⾏更改。
配置完成后,执⾏NameNode的格式化
/usr/local/hadoop/bin/hdfs namenode -format
验证Hadoop安装
下⾯的步骤是⽤来验证Hadoop的安装。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论