选择题
1、大数据技术的基础是由哪个公司首先提出的。(B)
A:微软 B:谷歌 C:腾讯 D:IBM
2、大数据最显著的特征是什么。(A )
    A:数据规模大 B:数据处理速度快 C:数据类型多 D:数据价值密度高
3、下面哪个程序负责 HDFS 数据存储。(C)
A:NameNode  B:Jobtracker  C: Datanode  D:secondaryNameNode
4、HDFS 中的 block 默认保存几个备份。(A)
hbase属于什么数据库
A:3 份 B:2 份 C.:1 份 D:不确定
5、HDFS1.0 默认 Block Size大小是多少。(B)
A:32MB  B:64MB  C:128MB        D:256MB
6、以下哪一项属于非结构化数据。(C)
A: 企业ERP数据  B: 财务系统数据 C: 视频监控数据  D: 日志数据
7、HBase是分布式列式存储系统,记录按什么集中存放。(A)
A:列族  B: 列  C: 行  D: 不确定
8、客户端首次查询HBase数据库时,首先需要从哪个表开始查。(B)
A:.META.  B: –ROOT-  C: 用户表  D: 信息表
判断题
1、 当前,企业提供的大数据解决方案大多基于Hadoop开发项目。(是)
2、 第二名称节点可以作为热备份使用。(否)
3、 NoSql数据库能够完全取代传统关系型数据库。(否)
4、 Hadoop 支持数据的随机读写。(否)
5、 MapReduce适于PB级别以上的海量数据在线处理。(否)
6、 HBase对于空(NULL)的列,不需要占用存储空间。(是)
7、 HBase可以有列,可以没有列族。(否)
8、 HDFS HA 可以有效解决单点故障问题。(是)
填空题
1、 第三次信息化浪潮到来的时间 2010
2、 大数据时代的三大技术支撑:存储设备容量增加CPU计算能力大幅增加网络带宽不断增加
3、 数据产生方式的三个阶段 运营式系统用户原创内容感知式系统
4、 云计算的三种服务模式 IaaSPaaSSaaS
5、 云计算的关键技术:虚拟化分布式存储分布式计算多租户
6、 HDFS1.0中一个块默认大小:64M
7、 1PB = 1024TB
8、 HBase 中表的索引由哪几部分组成 行键列族列限定符时间戳

根据下面这段shell命令,分析该段代码的具体功能。
$ sudo useradd -m hadoop -s /bin/bash
$ sudo passwd Hadoop
$ sudo adduser hadoop sudo
创建hadoop用户,简单设置为 hadoop,按提示输入两次密码,为 hadoop 用户增加管理员权限,方便部署。
2、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo apt-get install openssh-server
$ ssh localhost
$ exit                 
$ cd ~/.ssh/               
$ ssh-keygen –t  rsa             
$ Cat ./id_rsa.pub >> ./authorized_keys
安装 SSH server,登陆本机,退出ssh,利用 ssh-keygen 生成密钥,并将密钥加入到授权中
1、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo apt-get install default-jre default-jdk
$ vim ~/.bashrc
$ source ~/.bashrc 
安装JDK,当前登录用户的环境变量配置文件.bashrc,让环境变量立即生效
2、根据下面这段shell命令,分析该段代码的具体功能。
$ sudo tar -zxf ~/下载/hadoop-2.6. -C /usr/local$ ssh localhost
$ cd /usr/local/                 
$ sudo mv ./hadoop-2.6.0/ ./hadoop               
$ sudo chown -R hadoop ./hadoop             
将 Hadoop 安装至 /usr/local/ 中,解压到/usr/local中,将文件夹名改为hadoop,修改文件权限
public static void main(String[] args) {
                Configuration conf =     new  Configuration()     ;
                conf.set("fs.defaultFS","hdfs://localhost:9000");
                conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
                FileSystem fs = (conf);
                Path file = new Path("test");
                FSDataInputStream getIt = fs.open(file);
                BufferedReaderd = new BufferedReader(new InputStreamReader(getIt));
                String content =   d.readLine()    ;
                System.out.println(content);
                d.close(); //关闭文件
                fs.close();        
                     
                }
public static void createTable(String myTableName,String[] colFamily) throws IOException {
        init();
        TableName tableName = TableName.valueOf(myTableName);
        if(admin.tableExists(tableName)){
            System.out.println("talbe is exists!");
        }else {
    HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
            for(String str:colFamily){
    HColumnDescriptor hColumnDescriptor = new HColumnDescriptor(str);
                hTableDescriptor.addFamily(hColumnDescriptor);
            }
              ateTable(hTableDescriptor);                           
            System.out.println("create table success");
        }
        close();                       
    }
public static void main(String[] args) {
                String filename = "test";
                Configuration conf = new   Configuration()    ;
                        conf.set("fs.defaultFS","hdfs://localhost:9000");                                conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。