下面关于Spark SQL架构的描述错误的是:
A.在Shark原有的架构上重写了逻辑执行计划的优化部分,解决了Shark存在的问题
B.Spark SQL在Hive兼容层面仅依赖HiveQL解析和Hive元数据
C.Spark SQL执行计划生成和优化都由Catalyst(函数式关系查询优化框架)负责
D.Spark SQL执行计划生成和优化需要依赖Hive来完成
A.在Shark原有的架构上重写了逻辑执行计划的优化部分,解决了Shark存在的问题
B.Spark SQL在Hive兼容层面仅依赖HiveQL解析和Hive元数据
C.Spark SQL执行计划生成和优化都由Catalyst(函数式关系查询优化框架)负责
D.Spark SQL执行计划生成和优化需要依赖Hive来完成
B.可以通过AC增强业务Qos,安全等功能
C.AP本身零配置,适合大规模组网
D.必须通过网管系统实现对AP和用户的管理
B.WBS工项分解的一、二级结构宜与《铁路工程信息模型交付标准》规定的模型单元一、二级结构一致
C.在交付设计单元的WBS工程分解表时,个别节点的工程范围可以与设计单元的工程范围不一致。不一致时,必须在交付表中明确说明
D.WBS工项分解的施工单元应遵循《铁路工程设计信息模型表达标准》的设计单元划分原则
A、Spark SQL可以提供DataFrame API,可以对内部和外部各种数据源执行各种关系操作
B、可以支持大量的数据源和数据分析算法,组合使用Spark SQL和Spark MLlib,可以融合传统关系数据库的结构化数据管理能力和机器学习算法的数据处理能力
C、Spark SQL无法对各种不同的数据源进行整合
D、Spark SQL无法融合结构化数据管理能力和机器学习算法的数据处理能力
A、Shark提供了类似Pig的功能
B、Shark把SQL语句转换成MapReduce作业
C、Shark重用了Hive中的HiveQL解析、逻辑执行计划翻译、执行计划优化等逻辑
D、Shark的性能比Hive差很多
A、df.write.json("people.json")
B、df.json("people.json")
C、df.write.format("csv").save("people.json")
D、df.write.csv("people.json")
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!