Spark - repartition()vs coalesce()
根据Learning Spark的说法
请记住,重新分区数据是一项相当昂贵的操作。Spark还有一个优化版本的repartition(),称为coalesce(),它允许避免数据移动,但前提是你减少了RDD分区的数量。
我得到的一个区别是,使用repartition()可以增加/减少分区数量,但是使用coalesce()时,只能减少分区数量。
如果分区分布在多台机器上并运行coalesce(),它如何避免数据移动?
茅侃侃
相关分类