题目内容 (请给出正确答案)
[主观题]

HDFS 以固定大小的block 为基本单位存储数据,而MapReduce的处理单位是split。

提问人:网友yager_y 发布时间:2022-01-07
参考答案
  抱歉!暂无答案,正在努力更新中……
如搜索结果不匹配,请 联系老师 获取答案
更多“HDFS 以固定大小的block 为基本单位存储数据,而Ma…”相关的问题
第1题
Hadoop的两大核心是HDFS和MapReduce,HDFS用来存储数据,MapReduce用来处理数据。
点击查看答案
第2题
Flume用于收集数据,其传输的数据基本单位是?()

A.Split

B.Block

C.Event

D.Packet

点击查看答案
第3题
下列说法正确的是

A、数据仓库Hive不需要借助于HDFS就可以完成数据的存储

B、Impala和Hive、HDFS、HBase等工具可以统一部署在一个Hadoop平台上

C、Hive本身不存储和处理数据,依赖HDFS存储数据,依赖MapReduce处理数据

D、HiveQL语法与传统的SQL语法很相似

点击查看答案
第4题
以下关于分布式文件系统HDFS的说法不正确的是:

A.HDFS是能够运行在通用硬件上的分布式文件系统

B.HDFS支持存储TB-PB级别的数据

C.HDFS支持多用户写入,任意修改文件

D.数据块(Block)是HDFS文件系统基本的存储单位

点击查看答案
第5题
SQL Server中()的基本单位是页,一页的大小为 8 千字节 ()。页是存储数据的() 单位。

SQL Server中()的基本单位是页,一页的大小为 8 千字节 ()。页是存储数据的() 单位。

点击查看答案
第6题
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().
下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是().

A.FSDataInputStream扩展了DataInputStream以支持随机读

B.为实现细粒度并行,输入分片应该越小越好

C.一台机器可能被指派从输入文件的任意位置开始处理一个分片

D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割

点击查看答案
第7题
Hadoop生态系统中,用于分布式计算中数据存储的是

A.HDFS

B.MapReduce

C.YARN

D.Sqoop

点击查看答案
第8题
HDFS有一个gzip文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时inputsplit大小为()。

A.64MB

B.128MB

C.75MB

D.一个map读取64MB,另外一个读取11MB

点击查看答案
第9题
HDFS有一个LZO(withindex)文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时inputsplit大小为()。

A.64MB

B.128MB

C.75MB

D.一个map读取64MB,另外一个读取11MB

点击查看答案
第10题
以下说法不正确的是()。
以下说法不正确的是()。

A、MapReduce的核心思想就是“分面治之”

B、HDFS是对GFS的开源实现

C、MapReduce是一种分布式计算模型

D、HDFS采用HBase作为其底层数据存储

点击查看答案
账号:
你好,尊敬的用户
复制账号
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
欢迎分享答案

为鼓励登录用户提交答案,简答题每个月将会抽取一批参与作答的用户给予奖励,具体奖励活动请关注官方微信公众号:简答题

简答题官方微信公众号

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
简答题
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反简答题购买须知被冻结。您可在“简答题”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
简答题
点击打开微信