慕莱坞7914436
2017-06-01 23:14
视频讲spark扩充了流行的mapreduce计算模型。谁怎么扩充的?求解释
相比与MapReduce编程模型,Spark提供了更加灵活的DAG(Directed Acyclic Graph) 编程模型, 不仅包含传统的map、reduce接口, 还增加了filter、flatMap、union等操作接口,使得编写Spark程序更加灵活方便。
Spark从零开始
52741 学习 · 81 问题
相似问题
回答 2
回答 1