Spark基础(习题卷1)
说明:答案和解析在试卷最后
第1部分:单项选择题,共72题,每题只有一个正确答案,多选或少选均不得分。
1.[单选题]在Spark中,Scala Map 的常用方法中,以下选项中哪一个是返回所有的 Key
A)def isEmpty
B)defkeys
C)defremove
D)defsum
2.[单选题]创建一个HDFS客户端对象时,Configuration实例会自动加载HDFS的配置文件(),从中获取Hadoop集的配置信息。
l
B)hadoop-env.sh
l
l
3.[单选题]在Scala中,以下选项中哪一个是合并数组
A)def apply(x:T,xs:T*)
B)def concat[T](xss:Array[T]*)
C)def copy(src:AnyRef,srcPos:Int,dest:AnyRef,destPos:Int,length:Int)
D)def empty[T]
4.[单选题]在Spark中,first( )方法属于什么操作?
A)转换操作
B)行动操作
C)集合操作
D)以上都不是
5.[单选题]以下选项中,哪个程序负责HDFS数据存储。
A)NameNode
B)DataNode
C)Secondary NameNode
D)ResourceManager
6.[单选题]Hive最重视的性能是可测量性、延展性、()和对于输入格式的宽松匹配性
A)较低恢复性
B)容错性
C)快速查询
D)可处理大量数据
B)lib
C)bin
D)sbin
8.[单选题]客户端连接Zookeeper集的命令是()。
A)get /zk
B)delete /zk
C)zkCli.sh
D)ls /
9.[单选题]在Spark中,如果Job的某个Stage阶段计算失败,重新计算的默认次数是?
A)1
B)2
scala不是内部或外部命令
C)3
D)4
10.[单选题]下列语句描述错误的是()
A)可以通过CLI方式、Java API方式调用Sqoop
B)Sqoop底层会将Sqoop命令转换为MapReduce任务,并通过Sqoop连接器进行数据的导入导出操作。
C)Sqoop是独立的数据迁移工具,可以在任何系统上执行。
D)如果在Hadoop分布式集环境下,连接MySQL服务器参数不能是localhost或127.0.0.1。
11.[单选题]按粒度大小的顺序,Hive数据被分为:数据库、数据表、()、桶?
A)元祖
B)栏
C)分区
D)行
12.[单选题]()使用目录节点树的方式(类似文件系统)存储数据,主要用途是维护和监听所存数据的状态变化,以实现对集的管理。
A)Zookeeper
B)HBase
C)Hive
D)Sqoop
13.[单选题]()可以为远程客户端提供执行Hive查询服务。
A)Metastore Server
B)HiveServer2
C)Beeline CLI
D)MySQL
14.[单选题]将关系型数据库中的数据导入到Hadoop平台的工具是()
A)import
B)export
C)overwrite
D)drop
15.[单选题]在Spark中,以下单例对象,定义错误的是?
A)object A{var str = “”}
D)object A{val str = “”}
16.[单选题]在Spark中,Yarn模式是否由Spark客户端直接连接Yarn,是否需要额外构建Spark集。
A)是,是
B)是,否
C)否,是
D)否,否
17.[单选题]以下()文件中主要用来配置 ResourceManager, NodeManager 的通信端口,web 监控端口等。
l
l
l
l
18.[单选题]HBase在新建表的时候必须指定表名和(),不需要指定列,所有的列在后续添加数据的时候动态添加。
A)行
B)单元格
C)时间戳
D)列族
19.[单选题]Hive表的数据默认存储与数据仓库目录()中。
A)/user/hive/warehouse
B)/opt/hive/warehouse
C)/opt/softwares/warehouse
D)/modules/hive/warehouse
20.[单选题]在Spark中,RDD执行任务执行失败时,重新计算的默认次数是?
A)1
B)2
C)3
D)4
21.[单选题]在Spark中,对于函数def getGoodsPrice(goods:String) = {val prices = Map(“book” -> 5, “pen”-> 2, “sticker” -> OrElse(goods, 0)}结果说法错误的是?
A)getGoodsPrice("book") // 等于 5
B)getGoodsPrice("pen") // 等于 2
C)getGoodsPrice("sticker") // 等于 1
D)getGoodsPrice("sock") // 等于 “sock”
22.[单选题]在RDD缓存级别中哪个级别CPU时间使用最低?
A)MEMORY_ONLY
B)MEMORY_ONLY_SER
C)MEMORY_ONLY_DISK
D)MEMEORY_ONLY_DISK_SER
23.[单选题]在Hadoop2.x版本下,HDFS中的文件总是按照默认大小()被切分成不同的块,且备份3份。
A)256M
B)128M
C)512M
24.[单选题]在Spark中,Spark Local 模式是运行在几台计算机上的模式?
A)1
B)2
C)3
D)4
25.[单选题]Centos 中修改文件或目录的访问权限( )命令
A)chown
B)passwd
C)chmod
D)clear
26.[单选题]下列关于zookeeper描述正确的是:()
A)无论客户端连接的是哪个Zookeeper服务器,其看到的服务端数据模型都是一致的
B)从同一个客户端发起的事务请求,最终将会严格按照其发起顺序被应用到zookeeper中
C)在一个5个节点组成的Zookeeper集中,如果同时有3台机器宕机,服务不受影响
D)、如果客户端连接到Zookeeper集中的那台机器突然宕机,客户端会自动切换连接到集其他机器
27.[单选题]MapReduce适用于()
A)任意应用程序
B)任意可以在Windows Server 2008上的应用程序
C)可以串行处理的应用程序
D)可以并行处理的应用程序
28.[单选题]在 ZooKeeper 中有三种角,下列选项中不属于 ZooKeeper 中的角()
A)Observer
B)Leader
C)Obeyer
D)Follower
29.[单选题]在Spark中,map( )函数的参数类型是什么?
A)RDD
B)函数
C)类
D)对象
30.[单选题]Flume中最小的独立运行单位是()。
A)Source
B)Agent
C)Channel
D)Sink
31.[单选题]在Spark中,RDD转换操作的最终结果是?
A)返回新的RDD
B)转换成新的数据类型
C)将某数据类型转换成RDD
D)以上都不是
32.[单选题]在Spark中,下面哪一个是Spark的最基本的数据抽象?
C)RDD
D)RDF
33.[单选题]以下选项中,哪种类型间的转换是被Hive查询语言所支持的()
A)Double-Number
B)BigInt-Double
C)Int-BigInt
D)String--Double
34.[单选题]在Scala中,以下选项中哪一个是创建指定对象 T的数组
A)def apply(x:T,xs:T*)
B)def concat[T](xss:Array[T]*)
C)def copy(src:AnyRef,srcPos:Int,dest:AnyRef,destPos:Int,length:Int)
D)def empty[T]
35.[单选题]在Scala List 的常用方法中,哪个是在列表开头添加元素
A)def +:(elem: A)
B)def ::(x: A)
C)def :::(prefix: List[A])
D)def :+(elem: A)
36.[单选题]在Spark中,以下哪种说法是正确的?
A)数组可以包括不同类型的元素
B)数组是不可变的
C)数组最多不可以超过50个元素
D)数组最多不可以超过22个元素
37.[单选题]大数据平台 Hadoop 的组件中,提供分布式协作服务的 组件是()
A)HBase
B)ZooKeeper
C)Sqoop
D)Hive
38.[单选题]在Spark中,Mesos模式是否由Spark 客户端直接连接 Mesos,是否需要额外构建 Spark 集
A)是,是
B)是,否
C)否,是
D)否,否
39.[单选题]下列哪些不是 HBase 的特点()
A)高可靠性
B)高性能
C)面向列
D)紧密性
40.[单选题]在Spark中,filter( )方法属于什么操作?
A)转换操作
B)行动操作
C)集合操作

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。