选择题
1、大数据技术的基础是由哪个公司首先提出的。(B)
A:微软 B:谷歌 C:腾讯 D:IBM
2、大数据最显著的特征是什么。(A )
A:数据规模大 B:数据处理速度快 C:数据类型多 D:数据价值密度高
3、下面哪个程序负责 HDFS 数据存储。(C)
A:NameNode B:Jobtracker C: Datanode D:secondaryNameNode
4、HDFS 中的 block 默认保存几个备份。(A)
hbase属于什么数据库A:3 份 B:2 份 C.:1 份 D:不确定
5、HDFS1.0 默认 Block Size大小是多少。(B)
A:32MB B:64MB C:128MB D:256MB
6、以下哪一项属于非结构化数据。(C)
A: 企业ERP数据 B: 财务系统数据 C: 视频监控数据 D: 日志数据
7、HBase是分布式列式存储系统,记录按什么集中存放。(A)
A:列族 B: 列 C: 行 D: 不确定
8、客户端首次查询HBase数据库时,首先需要从哪个表开始查。(B)
A:.META. B: –ROOT- C: 用户表 D: 信息表
判断题
1、 当前,企业提供的大数据解决方案大多基于Hadoop开发项目。(是)
2、 第二名称节点可以作为热备份使用。(否)
3、 NoSql数据库能够完全取代传统关系型数据库。(否)
4、 Hadoop 支持数据的随机读写。(否)
5、 MapReduce适于PB级别以上的海量数据在线处理。(否)
6、 HBase对于空(NULL)的列,不需要占用存储空间。(是)
7、 HBase可以有列,可以没有列族。(否)
8、 HDFS HA 可以有效解决单点故障问题。(是)
填空题
1、 第三次信息化浪潮到来的时间 2010年
2、 大数据时代的三大技术支撑:存储设备容量增加、CPU计算能力大幅增加、网络带宽不断增加
3、 数据产生方式的三个阶段 运营式系统、用户原创内容、感知式系统
4、 云计算的三种服务模式 IaaS、PaaS、SaaS
5、 云计算的关键技术:虚拟化、分布式存储、分布式计算、多租户
6、 HDFS1.0中一个块默认大小:64M
7、 1PB = 1024TB
8、 HBase 中表的索引由哪几部分组成 行键、列族、列限定符、时间戳
根据下面这段shell命令,分析该段代码的具体功能。
$ sudo useradd -m hadoop -s /bin/bash
$ sudo passwd Hadoop
$ sudo adduser hadoop sudo
创建hadoop用户,简单设置为 hadoop,按提示输入两次密码,为 hadoop 用户增加管理员权限,方便部署。
2、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo apt-get install openssh-server
$ ssh localhost
$ exit
$ cd ~/.ssh/
$ ssh-keygen –t rsa
$ Cat ./id_rsa.pub >> ./authorized_keys
安装 SSH server,登陆本机,退出ssh,利用 ssh-keygen 生成密钥,并将密钥加入到授权中
1、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo apt-get install default-jre default-jdk
$ vim ~/.bashrc
$ source ~/.bashrc
安装JDK,当前登录用户的环境变量配置文件.bashrc,让环境变量立即生效
2、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo tar -zxf ~/下载/hadoop-2.6. -C /usr/local$ ssh localhost
$ cd /usr/local/
$ sudo mv ./hadoop-2.6.0/ ./hadoop
$ sudo chown -R hadoop ./hadoop
将 Hadoop 安装至 /usr/local/ 中,解压到/usr/local中,将文件夹名改为hadoop,修改文件权限
public static void main(String[] args) {
Configuration conf = new Configuration() ;
conf.set("fs.defaultFS","hdfs://localhost:9000");
conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
FileSystem fs = (conf);
Path file = new Path("test");
FSDataInputStream getIt = fs.open(file);
BufferedReaderd = new BufferedReader(new InputStreamReader(getIt));
String content = d.readLine() ;
System.out.println(content);
d.close(); //关闭文件
fs.close();
}
public static void createTable(String myTableName,String[] colFamily) throws IOException {
init();
TableName tableName = TableName.valueOf(myTableName);
if(admin.tableExists(tableName)){
System.out.println("talbe is exists!");
}else {
HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
for(String str:colFamily){
HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(str);
hTableDescriptor.addFamily(hColumnDescriptor);
}
ateTable(hTableDescriptor);
System.out.println("create table success");
}
close();
}
public static void main(String[] args) {
String filename = "test";
Configuration conf = new Configuration() ;
conf.set("fs.defaultFS","hdfs://localhost:9000"); conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论