《大数据技术》Hadoop安装和HDFS常见的操作实验报告
一、实验目的:
1.掌握Linux虚拟机的安装方法;
2.掌握一些常用的Linux命令;
3.掌握Hadoop伪分布安装方法;
4.掌握Hadoop的常用操作。
5.熟练使用HDFS常用的Shell命令;
6.熟悉HDFS操作常用的JavaAPI。
二、实验平台
1.操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);
2.Hadoop版本:3.1.3。
3.JDK版本:1.8
4.Java IDEEclipse
二、实验内容:
1.熟悉常用的Hadoop操作
1使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”)为hadoop用户在HDFS中创建用户目录“/user/hadoop”
(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表
(3)将Linux系统本地的“~/.bashrc文件上传到HDFS的test文件夹,并查看test
(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下
2.编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:
(1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件;
(2)从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名;
(3)将HDFS中指定文件的内容输出到终端中;
(4)显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;
(5)给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;
(6)提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录;
(7)提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录;
(8)向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;
(9)删除HDFS中指定的文件;
(10)在HDFS中,将文件从源路径移动到目的路径。
3.编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。
三、实验过程与结论:(经调试正确的源程序(核心部分)和程序的运行结果)
  1.熟悉常用的Hadoop操作
1使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”)为hadoop用户在HDFS中创建用户目录“/user/hadoop”
(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表
(3)将Linux系统本地的“~/.bashrc文件上传到HDFS的test文件夹hadoop安装详细步骤linux中,并查看test
(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下
2. 编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:
  (1)
 
 
  (2)
 
(3)
(4)
(5)
(6)
(7)
(8)
(9)
(10)
3. 编程实现一个类“MyFSDataInputStream”
四、实验总结:(实验中遇到的问题及解决方法,心得体会等)
通过本次实验的学习,我对什么是大数据,大数据在做什么有了初步的了解,同时也激发起了我对大数据学习的兴趣。在今后的学习中我会更加努力,本章知识也为我后面章节的学习奠定了基础。让我有明确的目标去学习这门课程。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。