猿问
回到首页
个人中心
反馈问题
注册登录
下载APP
首页
课程
实战
体系课
手记
专栏
慕课教程
如何在Apache Spark 2.0中使用SparkSession?
如何在Apache Spark 2.0中使用SparkSession
翻过高山走不出你
浏览 725
回答 1
1回答
慕桂英546537
在Spark的早期版本,sparkContext是进入Spark的切入点。我们都知道RDD是Spark中重要的API,然而它的创建和操作得使用sparkContext提供的API;对于RDD之外的其他东西,我们需要使用其他的Context。比如对于流处理来说,我们得使用StreamingContext;对于SQL得使用sqlContext;而对于hive得使用HiveContext。
0
0
0
打开App,查看更多内容
随时随地看视频
慕课网APP
相关分类
Spark
科普Spark,Spark是什么,如何使用Spark
1 回答
Spark之我看什么是RDD
1 回答
继续浏览精彩内容
慕课网APP
程序员的梦工厂
打开
继续