问答详情
源自:1-1 Spark简介

怎么扩充的

视频讲spark扩充了流行的mapreduce计算模型。谁怎么扩充的?求解释

提问者:慕莱坞7914436 2017-06-01 23:14

个回答

  • 去疾3639230
    2017-06-12 22:57:48

    相比与MapReduce编程模型,Spark提供了更加灵活的DAG(Directed Acyclic Graph) 编程模型, 不仅包含传统的map、reduce接口, 还增加了filter、flatMap、union等操作接口,使得编写Spark程序更加灵活方便。