慕工程2104131
2020-07-25 11:06
Spark 是不是可以理解为大数据计算的组件 而Hadoop更偏更向于持久化存储?
hadoop也可以进行计算,它是通过mapreduce计算引擎来计算的。它们的区别是hadoop的mapreduce框架的九三是基于磁盘的,而spark的计算是基于内存的。这也是为什么spark计算比hadoop更快的原因。
Spark从零开始
52741 学习 · 81 问题
相似问题
回答 1
回答 2
回答 3