Shell 命令
如果返回的结果如下图所⽰,包含了 SSH client 跟 SSH server,则不需要再安装。
image
若需要安装,则可以通过 yum 进⾏安装(安装过程中会让你输⼊ [y/N],输⼊ y 即可):
1. sudo yum install openssh-clients
2. sudo yum install openssh-server
Shell 命令
接着执⾏如下命令测试⼀下 SSH 是否可⽤:
1. ssh localhost
Shell 命令
此时会有如下提⽰(SSH⾸次登陆提⽰),输⼊ yes 。然后按提⽰输⼊密码 hadoop,这样就登陆到本机了。
但这样登陆是需要每次输⼊密码的,我们需要配置成SSH⽆密码登陆⽐较⽅便。
⾸先输⼊ exit 退出刚才的 ssh,就回到了我们原先的终端窗⼝,然后利⽤ ssh-keygen ⽣成密钥,并将密钥加⼊到授权中:
1. exit # 退出刚才的 ssh localhost
2. cd ~/.ssh/ # 若没有该⽬录,请先执⾏⼀次ssh localhost
3. ssh-keygen -t rsa # 会有提⽰,都按回车就可以
4. cat id_rsa.pub >> authorized_keys # 加⼊授权
5. chmod 600 ./authorized_keys # 修改⽂件权限
安装JAVA环境
1. sudo yum install java-1.8.0-openjdk java-1.8.0-openjdk-devel
Shell 命令
通过上述命令安装 OpenJDK,默认安装位置为 /usr/lib/jvm/java-1.8.0-openjdk(该路径可以通过执⾏ rpm -ql java-1.8.0-openjdk-devel | grep
'/bin/javac' 命令确定,执⾏后会输出⼀个路径,除去路径末尾的 “/bin/javac”,剩下的就是正确的路径了)。OpenJDK 安装后就可以直接使⽤ java、javac 等命令了。
接着需要配置⼀下 JAVA_HOME 环境变量,为⽅便,我们在 ~/.bashrc 中进⾏设置(扩展阅读: 设置Linux环境变量的⽅法和区别):
1. vim ~/.bashrc
Shell 命令
在⽂件最后⾯添加如下单独⼀⾏(指向 JDK 的安装位置),并保存:
1. export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
Shell
如下图所⽰:
image
接着还需要让该环境变量⽣效,执⾏如下代码:
1. source ~/.bashrc # 使变量设置⽣效
Shell 命令
设置好后我们来检验⼀下是否设置正确:
1. echo $JAVA_HOME # 检验变量值
2. java -version
3. $JAVA_HOME/bin/java -version # 与直接执⾏ java -version ⼀样
Shell 命令
如果设置正确的话,$JAVA_HOME/bin/java -version 会输出 java 的版本信息,且和 java -version 的输出结果⼀样,如下图所⽰:
image
这样,Hadoop 所需的 Java 运⾏环境就安装好了。
安装 HADOOP 2
命令⾏输⼊如下命令即可获取hadoop2
image
ps: 如果wget没安装请先使⽤
image
安装wget
解压下载好的hadoop
1. sudo tar -zxf ~/hadoop-
2.8. -C /⽬录 # 解压到/usr/local中
2. cd /⽬录
3. sudo mv ./hadoop-2.8.5/ ./hadoop # 将⽂件夹名改为hadoop
4. sudo chown -R hadoop:hadoop ./hadoop # 修改⽂件权限
Hadoop 解压后即可使⽤。输⼊如下命令来检查 Hadoop 是否可⽤,成功则会显⽰ Hadoop 版本信息:
1. cd /⽬录/hadoop
2. ./bin/hadoop version
HADOOP单机配置(⾮分布式)
Hadoop 默认模式为⾮分布式模式,⽆需进⾏其他配置即可运⾏。⾮分布式即单 Java 进程,⽅便进⾏调试。
现在我们可以执⾏例⼦来感受下 Hadoop 的运⾏。Hadoop 附带了丰富的例⼦(运⾏ ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar 可以看到所有例⼦),包括 wordcount、terasort、join、grep 等。
image
在此我们选择运⾏ grep 例⼦,我们将 input ⽂件夹中的所有⽂件作为输⼊,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output ⽂件夹中。
1. cd /⽬录/hadoop
2. mkdir ./input
3. cp ./etc/hadoop/*.xml ./input # 将配置⽂件作为输⼊⽂件
4. ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'
执⾏结果如图所⽰:
image
1. cat ./output/* # 查看运⾏结果
image
注意,Hadoop 默认不会覆盖结果⽂件,因此再次运⾏上⾯实例会提⽰出错,需要先将 ./output 删除。
1. rm -r ./output
HADOOP伪分布式配置
Hadoop 可以在单节点上以伪分布式的⽅式运⾏,Hadoop 进程以分离的 Java 进程来运⾏,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的⽂件。
在设置 Hadoop 伪分布式配置前,我们还需要设置 HADOOP 环境变量,令在 ~/.bashrc 中设置:
>linux安装jdk rpm安装
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论