实 验 报 告
(与程序设计有关)
课程名称:  云计算技术提高                   
实验题目:  Hadoop 搭建                   
Xx  xx:  0000000000                     
x    x:     xx                             
x    x:                                 
                        xxxx
                                2021年 5 月 21 日
实验目的及要求:
开源分布式计算架构Hadoop的搭建
软硬件环境:
    Vmware 一台计算机
算法或原理分析(实验内容):
Hadoop是Apache基金会旗下一个开源的分布式存储和分析计算平台,使用Java语言开发,具有很好的跨平台性,可以运行在商用(廉价)硬件上,用户无需了解分布式底层细节,就可以开发分布式程序,充分使用集的高速计算和存储。
Hadoop由分布式文件系统HDFS、MapReduce系统、YARN作业调度和资源管理框架以及Hadoop Common通用组件模块组成。
一.Hadoop集的搭建过程:
 (1)环境设置:三台 VirtualBox上的Linux虚机,每台硬盘20G,内存768M。
配置相应IP与主机名,配置hosts文件填写主机和其他节点的IP映射。关闭防火墙并设置时间同步。并建立ssh无密码访问。
 (2)JDK安装:下载JDK、配置环境变量
 (3)Hadoop的安装:安装并配置环境变量、配置hadoop的配置文件,需要配置的有hadoop-env.sh、yarn-env.sh、l、l、l、l、slaves。
二.Hadoop集的测试过程:
(1)测试hadoop集启动情况
(2)测试hadoop集的文件系统
(3)测试hadoop自带统计单词案例
程序代码或实现过程:
一.环境配置
    1.配置各个虚拟机的IP和主机名
    通过vi /etc/sysconfig/network-scripts/ifcfg-eth0 进入IP配置文件
    配置主机IP和网关,如master 192.168.190.130;slave1 192.168.190.131;slave2 192.168.190.131
    2.配置hosts
    通过vi /etc/hosts进入文件配置ip映射,填写192.168.190.130 master等slave主机的映射信息。其他主机也要配置,可以通过scp将配置后的文件发生给slave结点。
    3.关闭防火墙并设置时间同步
    通过命令firewall-cmd–state查看防火墙运行状态;利用systemctl stop firewalld.service关闭防火墙;最后使用systemctl disable firewalld.service禁止自启。利用yum install ntp下载相关组件,利用date命令测试 
4.建立ssh无密码访问
二.JDK安装
hadoop分布式集搭建1.下载JDK
利用yum list java-1.8*查看镜像列表;并利用yum install java-1.8.0-openjdk* -y安装
2.配置环境变量
利用vi /etc/profile文件配置环境,设置相应的JAVA_HOME、JRE_HOME、PATH、CLASSPATH的绝对路径。退出后,使用source /etc/profile使环境变量生效。利用java -version可以测试安装是否成功。
三.Hadoop的安装
1.安装并配置环境变量
进入进行下载hadoop-2.7.5, 将压缩包在/usr目录下解压利用tar -zxvf Hadoop-2.7.命令。同样进入 vi /etc/profile 文件,设置相应的HADOOP_HOME、PATH在hadoop相应的绝对路径。
2.配置hadoop的配置文件
需要配置的有hadoop-env.sh、yarn-env.sh、l、l、l、l、slaves。在hadoop-env.sh和yarn-env.s件下需要修改的是jdk的路径,修改为绝对路径。在l文件下配置默认FS和tem文件的位置。Slaves文件中写入三个主机名。
四.测试
1.格式化主结点上的namenode
    利用命令./bin/hdfs namenode -format
2.启动hadoop
    利用命令./sbin/start-all.sh
3.测试hadoop集
首先利用jsp命令查看各个结点的进程。是否在主结点出现SecondaryNameNode、ResourceManger、NameNode、DateNode,是否在子结点出现DateNode和NodeManager。其次是否能进入网页192.168.190.130:50070
4.测试hadoop集的文件系统
创建文件夹利用命令hdfs dfs -mkdir /inputdata_w;上传txt文件利用hdfs dfs -put /home/  /inputdata_w 将本地的文件上传到服务器的文件夹下。
5.测试hadoop自带统计单词案例
    利用hadoop jar Hadoop-mapreduce-examples-2.7.5.jar wordcount /inputdata_w/out/wordcountout01后面一个是数据来源文件,另一个是结果输出文件。最后查看输出文件的内容来检验结果 hdfs dfs -cat /output/wordcountout01/part-r-0000
结果分析:
xx
日 期
                   
双面打印

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。