-
Finit
首先,肯定要有一定编程语言基础,最好会对程序优化方法,比如设计模式;其次,Linux绕不过去;最后,学习大数据常用软件框架,比如hadoop、hive等
-
Airl
数据分析的基本流程都在这了
-
风风风_
以牢固的Java技术作为基础,之后学习大数据的专业技术,HTML、CSS与JavaScript,JavaWeb和数据库,Linux基础,Hadoop生态体系,Spark生态体系,Storm实时开发等。投入时间和精力,以兴趣来驱动学习。不管是在机构学习还是自学,在整个的学习过程中贯穿着代码实战。看的代码是别人的,动手写出来的是自己的。自己动手写代码,记忆更加深刻,效率更高。
-
小农的奋斗
Java必须学好,这是前提。既然选择了编程,Linux起码也得学的差不多吧。只说这两个前提条件,至于怎么入手,自己搜Hadoop及其生态系统吧。