现在MapReduce是不是已经被Spark替代了?
没有,两个的侧重点不一样,mapReduce适合对实时性要求不高的计算(计算时中间结果溢写到磁盘),io消耗大,spark是基于内存的计算框架,计算速度是很快的。一个是 时间换空间 另一个是 空间换时间。