问答详情
源自:3-4 HDFS特点

大佬们,既然现在有spark了,是先学hadoop还是直接学spark呢?

大佬们,既然现在有spark了,是先学hadoop还是直接学spark呢?

提问者:碰碰碰气球 2017-01-21 23:06

个回答

  • 不忘初心IOU
    2017-01-25 11:16:14
    已采纳

    循序渐进吧,先从Hadoop学习开始吧。毕竟Hadoop 较于 spark 先出现,spark 是在Hadoop 基础发展的,那么Hadoop就是基础,学好基础,可能更有利于你学习spark。个人建议,仅供参考。

  • __及未来__
    2018-09-27 16:02:12

    首先,Spark是一个大数据计算框架,它并不完成数据存储的过程;因此Spark是基于Hadoop下使用的;

    所以,Hadoop一定要学的,只是你可以看情况学多少