《Hadoop平台搭建与应用》课程标准
课程名称:Hadoop平台搭建与应用 | 课程代码: | 课程类型:专业基础课程 |
学 分:4 | 计划学时:64 | 实践课时比例:50% |
主要授课方式:理实一体化 | 考核方式:上机操作 | |
适用专业:大数据技术与应用专业、云计算技术与应用专业、软件技术专业 | ||
1. 概述
1.1课程的性质
本课程是大数据技术与应用专业、云计算技术与应用专业、软件技术专业的专业基础课程,是校企融合系列化课程,该课程基于Hadoop生态系统进行大数据平台的构建。
1.2课程设计理念
本课程遵循应用型本科和高等职业教育规律,以大数据技术与应用实际工作岗位需求为导向
选取课程内容,课程目标是培养学生具备“大数据分析”应用项目所需系统环境的搭建与测试综合职业能力;坚持开放性设计原则,吸收企业专家参与,建立基于Hadoop的生态环境,以“工作任务”为载体的“项目化”课程结构;课程教学实施教、学、做一体,坚持理论为实践服务的教学原则,通过模拟企业“大数据分析”环境进行组织,锻炼学生的实践操作能力。
1.3课程开发思路
通过岗位技能的项目化以及系统搭建与应用任务的序列化,对内容体系结构进行了适当调整与重构,以适应教学课程安排。以项目案例及其任务实现为驱动,凭借翔实的操作步骤和准确的说明,帮助学生迅速掌握Hadoop生态系统环境构建与应用,并且充分考虑学习操作时可能发生的问题,并提供了详细的解决方案,突出岗位技能训练。
2.课程目标
本课程的培养目标是使学生以大数据系统运维岗位需求为依托,以实际工作任务为导向,理清Hadoop生态系统中各个组件的作用及应用,培养学生大数据分析平台构建的实际动手能力。
2.1知识目标
基于Hadoop2.X生态系统,要求学生全面掌握Hive环境搭建与基本操作、Zookeeper环境搭建与应用、HBase环境搭建与基本操作、 pig系统搭建与应用、Sqoop系统搭建与应用、Flume系统搭建与应用以及使用Apache Ambari实现Hadoop集搭建及管理等的相关知识以及操作技能。
2.2素质目标
(1)培养学生动手能力、自主学习新知识的能力
(2)培养学生团队协作精神
2.3能力目标
通过该课程的学习,学生能利用所学的相关技术,能搭建适用于各种大数据分析应用业务需求的系统,能处理常见的系统运行问题。
3.课程内容和要求
根据专业基础课程目标和涵盖的工作任务要求,确定课程内容和要求,说明学生应获得的知识、技能与态度。
学习情境 | 工作任务 | 知识要求 | 技能要求 | 学时安排 |
认识大数据 | 认知大数据,完成系统环境搭建 | 熟悉大数据的概念和特征;熟悉大数据分析流程和工具使用。 | 学会Ubuntu的安装与常用命令的应用; 学会Hadoop的安装与配置。 | 4 |
Hadoop环境搭建 | 熟悉Hadoop的系统环境和版本 | 学会Hadoop单机模式的安装与配置;伪分布式模式的安装与配置;集模式的安装与配置。 | 4 | |
Hive环境搭建与基本操作 | Hive的安装与配置 | 了解Hive产生背景,Hive架构 | 学会MySQL安装与配置;学会Hive的安装与配置。 | 4 |
Hive的应用 | 熟悉Hive SQL基本操作。 | 学会Hive分区表和桶表的创建。 | 4 | |
Zookeeper环境搭建与应用 | ZooKeeper的安装与配置 | 了解ZooKeeper的功能;识记领会ZooKeeper与Hadoop各组件的功能与联系。 | 学会ZooKeeper的安装与配置 | 4 |
ZooKeeper CLI操作 | 识记ZooKeeper CLI操作的相关知识 | 学会znode的创建操作;学会从znode获取数据操作;学会为znode设置数据操作;学会znode的移除操作。 | 4 | |
HBase环境搭建与基本操作 | HBase的安装与配置 | 了解HBase产生背景,HBase架构;熟悉HBase的特点。 | 学会HBase安装与配置 | 4 |
HBase shell操作 | 熟悉HBase shell相关知识 | 学会HBase shell的常用操作 | 4 | |
Hadoop常用工具组件的安装 | Sqoop的安装与应用 | 了解Sqoop作用,熟悉Sqoop相关知识内容, | 学会Sqoop的安装与配置;学会使用Sqoop完成MySQL 和HDFS之间的数据互导。 | 4 |
pig安装和使用 | 了解pig作用,熟悉pig相关知识内容 | 学会pig的安装与配置;学会使用pig进行简单的数据分析。 | 4 | |
Flume安装和使用 | 了解Flume作用,熟悉Flume相关知识内容。 | 学会Flume的安装与配置;学会使用Flume完成日志数据上传HDFS。 | 4 | |
搭建Ambari Hadoop系统 | 搭建Ambari Hadoop系统 | 了解Ambari功能,熟悉的相关技术知识。 | 学会Ambari Server和Ambari Agent的配置方法;学会利用Ambari扩展集。 | 4 |
使用Apache Ambari管理Hadoop集 | 熟悉Ambari Web管理界面 | ubuntu使用入门教程学会使用Ambari Web管理界面对Hadoop服务进行管理的方法;对集主机进行管理的方法;对服务进程进行管理的方法;对服务配置文件进行管理的方法。 | 4 | |
Hadoop平台应用综合案例 | 本地数据集上传到数据仓库Hive | 了解Hive;与传统关系型数据库对比熟悉Hive的技术优势。 | 学会将本地数据集上传到数据仓库Hive中的方法 | 4 |
使用Hive进行简单的数据分析 | 熟悉Hive的相关知识 | 学会使用Hive进行简单的数据分析操作 | 4 | |
Hive、MySQL、HBase数据互导 | 熟悉数据互导的相关知识。 | 学会Hive、MySQL、HBase数据互导操作 | 4 | |
合计 | 64 | |||
4.课程实施和建议
4.1课程的重点、难点及解决办法
课程重点在于培养学生能够利用所学的相关技术知识,结合实际大数据分析应用业务,基于Hadoop生态系统,完成大数据平台的构建与常见运行问题的处理,难点在于针对基础不同、兴趣不一的学生采用不同的方法进行能力的培养。
4.2教学方法和教学手段
4.2.1教学方法:
项目引领、任务驱动:每个项目都是多个任务的结合体。 每个项目都按规范的流程进行组织, 通过案例引导:将大数据企业中大数据技术与应用岗位相关的项目引入课堂,演绎为工作中的各种操作任务案例,培养学生基于Hadoop生态系统的基础上,结合大数据具体应用业务,进行大数据平台构建与运维的操作技能。
4.2.2教学手段
多媒体教学、上机演示教学等
4.3教学评价
该课程的考核改变单一的终结性评价方法,采用过程考核和结果考核相结合、理论考试和实践考核相结合的方法。理论部分考核学生对项目所涉及的知识点综合掌握情况,实践部分考核基于Hadoop生态系统的基础上,结合大数据具体应用业务,进行大数据平台构建与运维的能力。灵活多样的考核方式可以全面考核学生的学习效果。
说明:每个教学项目模块的考核主要考察学生的出勤情况、实际动手能力、理论知识的运用与掌握情况、完成作业的准确度、完整度、规范度等、分析问题、解决问题的能力、合作沟通能力、学习态度、总结报告(报告的内容、态度、写作水平等)等评定项目进行考核。
4.4 教材选用
《Hadoop平台搭建与应用》米洪、张鸰主编 人民邮电出版社,2019。
4.5课程资源的开发与利用
1.教辅材料:要力求接近实践,最好是来源于实践的案例与情境,并开发课程的习题、参考文献等内容,向学生开放,以利于学生自主学习。
2.实训指导书:格式正确、内容全面,且能具体写明对学生的各项要求。
3.软件环境:不断完善大数据分析综合实训室的软件环境,引进与采购管理软件用于教学,为学生提供更好的采购软件模拟条件。
4.硬件环境:希望能够完善硬件建设,同时,通过各种渠道加大对校外实训基地的建设,为学生的校外实践提供环境条件。
5.信息技术:充分的利用各种信息技术,例如网络、多媒体课件等,为学生提供学习的便利条件。例如加大课程的网络资源建设,把与课程有关的文献资料、课程标准、电子教案、教学课件、教学视频、相关前沿信息、与职业资格考试相关的资料、学生与教师的互动等都放到网上,充分的为学生的自主学习提供环境条件。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论