单项选择题HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是128M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()

A.一次写入,少次读写
B.多次写入,少次读写
C.一次写入,多次读写
D.多次写入,多次读写


您可能感兴趣的试卷

你可能感兴趣的试题

2.单项选择题关于Tableau,以下说法错误的是()

A.Tableau支持多种格式数据,包括平面文件(比如Execl,txt文本),或者是数据
B.支持多表关联
C.使用Tableau分析数据,比传统的数据库查询快10到100倍
D.Tableau不能查询Hadoop

3.单项选择题向数据表中更新一条记录用以下哪一项()

A.CREATE
B.INSERT
C.SAVE
D.UPDATE

5.单项选择题在Hadoop客户端ᨀ交数据到HDFS上时,数据文件会被分片(split),最佳的分片策略是()

A.等于两个HDFS的block块大小
B.等于一个HDFS的block块大小
C.等于操作系统的文件块大小
D.大小无所谓

6.单项选择题下面哪项工作场景不是MapReduce计算框架擅长处理的?()

A.分析web日志记录,分析用户的行为
B.实时分析微博热词
C.分析气象数据,找出有历史记录以来每年的最高气温
D.购物篮分析,分析用户购买商品的关联度

7.单项选择题HBase分布式模式最好需要()个节点?

A.1
B.2
C.3
D.最少

8.单项选择题HBase虚拟分布式模式需要()个节点?

A.1
B.2
C.3
D.最少3个

9.单项选择题默认情况下,YARN支持下面哪个调度器。()

A.Fair scheduler
B.Capacity scheduler
C.FIFO调度器
D.DRT调度器

10.单项选择题HFile数据格式中的Magic字段用于()

A.存储随机数,防止数据损坏
B.存储数据的起点
C.存储数据块的起点
D.指定字段的长度