大数据技术与应用基础》教学大纲
学    时: 60
代 码:
适用专业:
制 定:
审 核:
批 准:
一、课程的地位、性质和任务
大数据技术的发展,已被列为国家重大发展战略。而在过去的几年里,无论是聚焦大数据发展 的《促进大数据发展行动纲要》 ,还是《“十三五”规划》中都深刻体现了政府对大数据产业和应用 发展的重视。目前国内大数据发展还处于加速期、转型期,数据与传统产业的融合还处
于起步阶段, 各行业对大数据分析和挖掘的应用还不理想。但随着市场竞争的加剧,各行业对大数据技术研究的 热情越来越高,在未来几年,各领域的数据分析都将大规模应用。
本课程在注重大数据时代应用环境前提下,考虑大数据处理分析需求多样复杂的基本情况,从 初学者角度出发, 以轻量级理论、 丰富的实例对比性地介绍大数据常用计算模式的各种系统和工具。 考虑到当前大数据发展处于起步并逐步赶超先进的阶段,其应用领域丰富广泛,在教学过程中应注 重掌握大数据分析的实践操作。本课程通过丰富简单易上手的实例,让学生能够切实体会和掌握各 种类型工具的特点和应用。
二、课程教学基本要求
1.了解大数据的发展和基本概念,理解并掌握大数据的特征及主要技术层面。
2.掌握 Scrapy 环境的搭建,了解网络爬虫获取数据的过程,熟悉爬虫项目的创建。
3.深刻了解 hadoop 的基础理论,理解并掌握 Hadoop 单机及集环境的部署方法。
4.掌握 HDFS的基本概念和 HDFShadoop 中的作用,理解并识记 HDFS的使用,了解 H
DFSJAVA API 接口及数据流原理;让学生明白 Map过程与 Reduce 过程这两个独立部分各自的原理及合 作途径,知道如何独立编写满足自己需求的    MapReduce程序。
5.理解 HBase中涉及的基本概念,掌握 HBase的简单应用;让学生了解数据仓库的基础概念, 熟悉 Hive HDFSMapReduce直接的关心。
6.熟悉 Spark RDD的基本概念,熟悉 spark 接口的使用,解决实战时的步骤及思路。
7.明白 HadoopStorm 之间的差别,掌握对 Storm 的使用。理解 Apex 的工作过程并能简单应 用。
8.了解 Druid 的基本概念、应用场景以及集架构,掌握批量数据加载、流数据加载的操作。 了解 Flink 的重要概念和基本架构,掌握 Flink 简单的使用实例。
9.理解 Elasticsearch 的基本架构,掌握 Elasticsearch 的一些入门操作。了解并基本掌握怎 样利用所学的工具对目标实例进行数据分析。
三、课程的内容
1.大数据概述
了解大数据的产生和发展,识记大数据的特征、数据类型和系统,大数据的计算模式和技术层 面间的关联。
2.数据获取
识记基本概念,识记各功能应怎样用 Scrapy 爬虫实现,了解采集目标数据项定义,领会并掌握 爬虫运行和数据存储技术。
3Hadoop 基础
领会 Hadoop 的主要特点,识记 Hadoop HDFSHadoop MapReduceHadoop YARN的原理,了解 其生态系统中重要组成的原理,熟悉 Hadoop 的配置。
4HDFS基本应用
熟悉 HDFS所需的 API 接口,了解数据流的工作过程,能简单操作    HDFS的接口。
5MapReduce应用开发
了解所需的开发环境 eclipse ,领会 Map 过程与 Reduce 过程的工作原理,了解使用 mapreduce 解决实际问题时的步骤和思路,识记    MapReduce代码的不同功能。
6.分布式数据库 HBase
识记 HBase的基本概念,熟悉安装 HBase集的步骤,了解 HBaseAPI 的基本步骤。
7.数据仓库工具 Hive
领会 Hive 的作用,掌握 Hive 接口的使用,会利用 Hive 解决实战问题。
8.开源集计算环境 Spark
了解 Spark 的基本思想,熟悉 Spark 所需的环境及 API 等,熟悉 Spark 实战的完整工作过程, 领会其所需的代码。
9.流实时处理系统 Storm
识记 Storm 相关概念,掌握 Storm 环境的安装配置,了解 Storm 的基本使用
10 .企业级、大数据流处理 Apex
识记 Apex 的基本概念,掌握 Apex 的环境配置过程,理解常见组件的原理和特点,会简单的应
Apex 解决问题。
11 .事件流 OLAPDruid
了解 Druid 的概念及其应用场所,掌握 Druid 单机环境的安装方法和步骤,并能利用 Druid 进 行加载流数据处理数据查询等。
12.事件数据流引擎 Flink
识记 Flink 的基本概念,明白 Flink 的基本架构,能够安装 Flink 的单机和集环境。
13 .分布式文件搜索 Elasticsearch
了解 Elasticsearch 包含重要部分的基本概念,掌握 Elasticsearch 重要的安装过程,掌握简 单的操作。
14.实例电商数据分析 能够通过已经学习了解过的环境和工具等,有条理有步骤的对实例进行数据挖掘、数据处理和 数据分析等,进而得出相关的结论。
四、课程的重点、难点
1.大数据概述
重点:大数据的概念和特征。
难点:大数据的计算模式和技术层面间的关联。
2.数据获取
重点: Scrapy 环境的搭建。
难点:网络爬虫获取数据的过程。
3Hadoop 基础
重点: Hadoop 的基础理论及安装。
难点: Hadoop 单机及集环境的部署方法。
4HDFS基本应用
重点:掌握 HDFS的两种使用方法。
5MapReduce应用开发
重点:明白 Map过程与 Reduce 过程的原理。 难点:独立编写满足自己需求的 MapReduce程序。
6.分布式数据库 HBase
重点: HBase所包含的 3 个重要组件的工作方式。
难点:如何通过 HBase shell HBase API 访问 HBase
7.数据仓库工具 Hive
重点:熟悉简单的 Hive 命令。
8.开源集计算环境 Spark
重点:理解 Spark 的工作机制。 难点:解决实战时的步骤及思路。
9.流实时处理系统 Storm
scrapy分布式爬虫
重点: Storm 的实时处理。
难点:利用 Storm 的特点对数据进行合适的处理。
10 .企业级、大数据流处理 Apex
重点: Apex 的流处理功能。
11 .事件流 OLAPDruid
重点: 使用 Druid 进行加载和查询数据。
12.事件数据流引擎 Flink 重点:明白 Flink 的基本架构。
难点: Flink 系统中进程间处理信息的原理。
13 .分布式文件搜索 Elasticsearch 重点: Elasticsearch 的基本架构。 14.实例电商数据分析 难点:怎样利用所学的工具对目标实例进行数据分析。
五、课时分配表
序号
课程内容
总学时
讲课
实验
习题课
机动
1
大数据概述
2
2
2
2
数据获取
4
2
2
3
Hadoop 基础
4
2
2
4
HDFS基本应用
4
2
2
5
MapReduce应用开发
6
4
2
6
分布式数据库 HBase
4
2
2
7
数据仓库工具 Hive
4
2
2
8
开源集计算环境 Spark
8
4
4
9
流实时处理系统 Storm
4
2
2
10
企业级、大数据流处理 Apex
4
2
2
11
事件流 OLAPDruid
4
2
2
12
事件数据流引擎 Flink
4
2
2
13
分布式文件搜索 Elasticsearch
4
2
2
14
实例电商数据分析
4
2
2
合计
60
32
28
六、实验项目及基本要求
实验一 通过爬虫获取数据 要求:能安装爬虫所需环境,创建简单的爬虫项目。成功完成爬虫核心实现。
实验二 Hadoop 安装与配置
要求: Hadoop 单机和集模式的配置。 实验三 实战 HDFS的接口 要求:能自主操作 Java 和命令行接口。
实验四 编写简单的 Mapreduce 程序
要求:完成 MapReduce所需环境的配置,完成 Mapreduce 应用实例 实验五 分布式数据库 HBase
要求:安装 HBase集模式,能简单使用 HBase shell Hbase API 。 实验六 Hive 的使用
要求:会进行简单的 Hive 命令使用,熟悉 Hive 的复杂语句。 实验七 Spark 简单编程与聚类实战
要求:了解 Spark 简单的 RDD创建,了解各个实战的编程实现及解决过程。 实验八 Storm 安装与配置
要求:了解 Storm 的概念及原理,了解 Storm 的安装和基本使用。 实验九 Spark 的使用和配置
要求:掌握 Apex 的使用,了解 Apex 的基本配置。
实验十 Druid 环境配置
要求:了解 Druid 的概念和使用,理解 Druid 的作用。 实验十 事件数据流引擎 Flink 的使用
要求:了解 Flink 的概念和部署过程,理解 Flink 的使用。
七、考核办法
1.考试采用统一命题,闭卷考试,考试时间为 120 分钟。
2.本大纲各部分所规定基本要求、知识点及知识点下的知识细目,都属于考核的内容。考试命 题覆盖到各部分,并适当突出重点部分,加大重点内容的覆盖密度。
3.不同能力层次要求的分数比例大致为:识记占    20%,领会占 30%,简单应用占 30%,综合应
用占 20%
4.题的难度可分为易、 较易、较难和难四个等级。 试卷中不同难度试题的分数比例一般为 2:3:3:2 5.试题主要题型有:填空、单项选择、多选、简答、及综合应用等。
八、使用说明
在本课程学习中,应从“了解” 、“识记”、“领会”、“简单应用” 、“综合应用”五个能力层次去 把握:
1.了解:要求概念的基本掌握,是最基本要求。
2.识记:要求能够识别和记忆本课程有关知识点的主要内容,并能够做出正确的表达、选择和 判断。
3.领会:在识记的基础上,要求能够领悟和理解本课程中有关知识点的内涵与外延,熟悉其
内 容要点和它们之间的区别与联系。并能够根据考核的不同要求,做出正确的解释、说明和论述。
4.简单应用:在领会的基础上,要求能够运用本课程中少量知识点,分析和解决一般的应用问 题。
5.综合应用:在简单应用的基础上,要求能够运用本课程中多个知识点,综合分析和解决复杂 的应用问题。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。