《大数据技术》Hadoop安装和HDFS常见的操作实验报告
一、实验目的: 1.掌握Linux虚拟机的安装方法; 2.掌握一些常用的Linux命令; 3.掌握Hadoop伪分布安装方法; 4.掌握Hadoop的常用操作。 5.熟练使用HDFS常用的Shell命令; 6.熟悉HDFS操作常用的JavaAPI。 二、实验平台 1.操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04); 2.Hadoop版本:3.1.3。 3.JDK版本:1.8; 4.Java IDE:Eclipse。 |
二、实验内容: 1.熟悉常用的Hadoop操作 (1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop” (2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表 (3)将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test (4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下 1.编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务: (1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件; (2)从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文件重命名; (3)将HDFS中指定文件的内容输出到终端中; (4)显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息; (5)给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息; (6)提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不存在,则自动创建目录; (7)提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删除该目录; (8)向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾; (9)删除HDFS中指定的文件; (10)在HDFS中,将文件从源路径移动到目的路径。 2.编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInputStream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,则返回空,否则返回文件一行的文本。 |
学期实验总结 | (本学期做了哪些实验?是如何解决实验中遇到的问题的?通过这些实验收获到了什么?如何进行下一步的学习?心得体会等) 首先感谢老师一学期的教导,通过一学期的学习,让我知道了什么是大数据,以及了解和学会了一些命令,上大学以来第一次接触大数据这门课,通过老师的讲解,我对大数据有了一些简单的感性认识。我觉得这门课真的是一门富有挑战性的科学,而从事这项工作的人不仅要懂得计算机知识。大数据在很多领域得到了发展,在我们的日常生活和学习中发挥了重要的作用。 本学期实验掌握了Linux虚拟机的安装方法;掌握了一些简单常用的Linux命令;掌握了Hadoop伪分布安装方法;熟悉HDFS操作常用的JavaAPI。熟悉了常用的Hadoop操作。熟悉HBase、MongoDB操作常用的JavaAPI。理解Hive作为数据仓库在Hadoop体系结构中的角。掌握使用Spark访问本地文件和HDFS文件的方法。掌握Spark应用程序的编写、编译和运行方法 并且我了解到MapReduce具有广泛的应用。学会词频统计,会一点编写Java API应用程序。 此次实验是学习的一个总结性的考核,让我能够把学到的知识运用到实践之中,是我的综合能力得到了提高。如果自己喜欢这门课程就不要一切麻烦,用自己的有效时间给自己的大学生活不留遗憾。相信我会在将来的学习之中更严格的要求自己。 |
指导教师评语及成绩 | 年 月 日 |
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论